KR20180085505A - System for learning based real time guidance through face recognition and the method thereof - Google Patents

System for learning based real time guidance through face recognition and the method thereof Download PDF

Info

Publication number
KR20180085505A
KR20180085505A KR1020170009112A KR20170009112A KR20180085505A KR 20180085505 A KR20180085505 A KR 20180085505A KR 1020170009112 A KR1020170009112 A KR 1020170009112A KR 20170009112 A KR20170009112 A KR 20170009112A KR 20180085505 A KR20180085505 A KR 20180085505A
Authority
KR
South Korea
Prior art keywords
information
user
minutia
face
minutiae
Prior art date
Application number
KR1020170009112A
Other languages
Korean (ko)
Other versions
KR101957677B1 (en
Inventor
김종훈
Original Assignee
주식회사 세연테크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 세연테크 filed Critical 주식회사 세연테크
Priority to KR1020170009112A priority Critical patent/KR101957677B1/en
Publication of KR20180085505A publication Critical patent/KR20180085505A/en
Application granted granted Critical
Publication of KR101957677B1 publication Critical patent/KR101957677B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0201Market modelling; Market analysis; Collecting market data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N5/225

Abstract

The present invention relates to a learning-based real time guide system using face recognition and a guide method thereof. Since only feature point information is extracted and stored from a facial image of a management subject, personal information of the management subject to be stored and managed is anonymized while feature point information extracted from a facial image of a user, which is taken through an imaging device, is compared to the feature point information of the management subject to recognize the face of the user. Therefore, the learning-based real time guide system is capable of monitoring the appearance of the management subject in real time.

Description

얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법{SYSTEM FOR LEARNING BASED REAL TIME GUIDANCE THROUGH FACE RECOGNITION AND THE METHOD THEREOF}FIELD OF THE INVENTION [0001] The present invention relates to a learning-type real-

본 발명은 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법에 관한 것으로, 더욱 상세하게는 관리대상자의 얼굴영상으로부터 특징점정보만을 추출하여 저장함으로써, 저장 관리되는 관리대상자의 개인정보를 익명화함과 동시에 영상촬영장치를 통해 촬영되는 사용자의 얼굴영상으로부터 추출한 특징점정보와 상기 저장한 관리대상자의 특징점정보를 비교하여, 상기 사용자의 얼굴을 인식함으로써, 관리대상자의 출현을 실시간으로 감시할 수 있도록 하는 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법에 관한 것이다.More particularly, the present invention relates to a learning-type real-time guidance system and method for recognizing personal information of a person to be stored and managed by extracting and storing minutia information from a face image of a person to be managed, At the same time, compares the minutia information extracted from the face image of the user photographed through the image photographing apparatus with the minutia information of the stored management object to recognize the face of the user so that the appearance of the managed object can be monitored in real time A learning-type real-time guidance system through recognition, and a guidance method thereof.

일반적으로 백화점, 상점, 편의점, 병원 또는 약국 등과 같이 고객을 대상으로 영업을 하는 곳에서는 항상 고객관리가 필수적으로 수행되어야 고객에게 최상의 서비스를 제공할 수 있다.In general, where customers are selling to department stores, shops, convenience stores, hospitals or pharmacies, customer management must always be performed to provide the best service to customers.

고객관리에는 VIP고객을 관리하는 것을 포함하여, 난동, 업무방해, 절도를 하였던 고객 등과 같이 비정상적인 고객뿐만 아니라 범행을 일으킬 수 있는 사람도 고객관리에 포함시킬 수 있다. 즉, 공식적으로 관리가 되고 있는 강도, 절도범, 성폭행범 등과 같은 범죄자도 고객관리대상에 포함할 수 있다.Customer management can include in the customer management not only unusual customers, but also those who can commit a crime, such as customers who have been involved in riot, obstruction, or theft, including managing VIP customers. In other words, criminals such as robbers, thieves, and rapists who are officially under control can be included in the customer management subject.

일반적으로 고객관리는 영업소에 대한 매출과 직결되기 때문에, VIP고객, 비정상적인 고객 및 범죄자 등을 포함하는 관리대상자의 얼굴을 인식하여 영업소 출입을 실시간으로 파악하고, 이를 통해 영업에 대한 방해해위 혹은 범죄행위 등을 사전에 방지하거나 VIP고객 등 우수고객에 대한 최적의 서비스를 제공하는 것이 매우 중요하다.In general, customer management is directly related to the sales to the sales office. Therefore, it recognizes the face of the management target including VIP customers, abnormal customers and criminals, grasps real-time access to the sales office, It is very important to prevent such acts as well as to provide optimal services for VIP customers and other excellent customers.

이러한 문제점을 해결하기 위해 최근에는 영업소를 출입하는 사용자의 얼굴영상을 미리 저장되어 관리되는 고객 및 관리대상자의 얼굴영상과 비교하여 상기 사용자의 신원을 식별하는 기술이 개발되어 상용화되고 있다.In order to solve such a problem, a technique of identifying the user's identity by comparing a facial image of a user entering and leaving a business office with a face image of a customer and a management subject stored in advance is developed and commercialized.

그러나 상기 종래의 기술과 같이, 얼굴영상을 사용하는 경우에는 개인정보관리법의 제약으로 개인의 얼굴을 저장 관리하는 데에는 그 한계가 있으며, 이를 잘못 활용하는 경우 법적으로 제제를 받을 수 있는 문제점 있다. 또한 공식적인 범죄자가 아닌 예상 범죄자의 얼굴영상(예를 들어, 기존에 영업을 방해한 고객의 얼굴영상)을 저장하여 별도의 목적으로 사용하는 데에는 많은 제약이 따른다(대한민국 개인정보보호법 참조).However, in the case of using the face image as in the related art, there are limitations in storing and managing faces of individuals due to the restriction of the personal information management method. In addition, there are many restrictions on the use of face images of anticipated criminals other than official offenders (for example, facial images of customers who have disturbed sales) for separate purposes (see the Korea Personal Information Protection Act).

또한 상기 종래의 기술은 얼굴영상을 직접적으로 비교하여 사용자의 얼굴을 확인하기 때문에 영상으로부터 얼굴부분을 추출하고, 기 저장한 얼굴영상과 일일이 비교하여야하기 때문에 상기 사용자의 얼굴을 확인하고 신원을 식별하는 데에 시간이 매우 오래 걸려, 고객관리를 위한 조치가 즉각적으로 수행되지 못하는 단점이 있으며, 더욱이 상기 비교에 필요한 계산복잡도가 매우 높은 문제점이 있다.In addition, since the conventional technique directly compares face images to identify a user's face, the face part is extracted from the image and compared with the previously stored face image, so that the user's face is identified and the identity is identified It takes a very long time and measures for customer management can not be performed immediately, and the calculation complexity required for the comparison is very high.

따라서 본 발명은, 비정상적인 고객, 공식적으로 관리되는 범죄자 및 우수고객을 포함한 복수의 관리대상자에 대한 얼굴영상으로부터 특징점정보를 추출하여, 유사도의 정도에 따라 특징점정보를 하나의 유사그룹으로 각각 그룹핑하고, 입력되는 사용자의 얼굴영상에 대한 특징점정보가 상기 그룹핑한 복수의 유사그룹 중 어느 유사그룹과 유사한지를 선별하여 상기 선별한 특정 유사그룹의 특징점정보와 상기 사용자의 특징점정보를 상호 비교함으로써, 상기 사용자의 얼굴을 즉각적으로 인식하여, 지정된 관리대상자의 출입을 실시간으로 확인하고, 이를 관리자에게 통보함으로써, 해당 관리대상자에 대한 적절한 조치가 즉각적으로 이루어질 수 있도록 하는 시스템 및 방법을 제공하고자 한다.Therefore, according to the present invention, minutia information is extracted from facial images of a plurality of management subjects including an abnormal customer, an officially managed criminal and an excellent customer, and the minutiae information is grouped into one similar group according to the degree of similarity, The feature point information of the input face image of the user is similar to any of the similar groups among the plurality of similar groups that are grouped to compare the feature point information of the selected specific similar group and the feature point information of the user, A system and method are provided for instantly recognizing a face, confirming access to a designated management subject in real time, and notifying the manager of the entry in real time, so that appropriate measures can be taken immediately for the management subject.

다음으로 본 발명의 기술분야에 존재하는 선행기술에 대하여 간단하게 설명하고, 이어서 본 발명이 상기 선행기술에 비해서 차별적으로 이루고자 하는 기술적 사항에 대해서 기술하고자 한다.Next, a brief description will be given of the prior arts that exist in the technical field of the present invention, and technical matters which the present invention intends to differentiate from the prior arts will be described.

먼저 한국공개특허 제1999-0050271호(1999.07.05.)는 얼굴인식을 통한 범죄자 얼굴 자동 검색 방법 및 장치에 관한 것으로, 사진을 포함한 얼굴의 특징 정보를 데이터베이스화하여 저장한 인명 데이터베이스와 입력된 얼굴 이미지로부터 특징 정보를 추출하여 상기 인명 데이터베이스의 정보와 비교하여 유사도를 측정하고, 상기 측정한 유사도의 가중치순으로 인명 정보를 정렬하여 출력함으로써, 사람에 대한 정보를 검색할 수 있도록 하는 얼굴 자동 검색 방법 및 장치에 관한 것이다.Korean Patent Laid-Open Publication No. 1999-0050271 (May 05, 1999) discloses a method and apparatus for automatically searching for a criminal's face through face recognition. The method includes a database for storing feature information of a face including a photograph, Extracting feature information from an image, comparing the information with the information of the personality database to measure similarity, sorting and outputting the person information in the order of the weights of the measured similarities, and searching for information about a person And apparatus.

상기 선행기술은 영상촬영장치로부터 입력되는 영상으로부터 얼굴의 특징점정보를 추출하고, 상기 추출한 특징점정보와 기 저장한 관리대상의 특징점정보를 상호 비교하여 상기 입력되는 얼굴을 인식하는 점에서 본 발명과 일부분 유사한 기술적 특징을 기재하고 있다. 그러나 상기 선행기술은 복수의 특징점정보를 일일이 비교하여 유사도가 높은 순으로 정렬하여 제공하기 때문에 시간복잡도와 계산복잡도가 매우 높은 문제가 있다. 이는 물품을 판매하는 영업소(예: 백화점, 마트 또는 옷가게 등) 또는 특정 서비스를 제공하는 영업소(예: 병원, 음식점 또는 은행 등)등과 같이 특정 영업소를 출입하는 사람들을 즉각적으로 인식하여 관리대상자에 대한 적절한 조치를 실시간적으로 수행할 수 있도록 하는 데에 한계가 있다.In the prior art, the feature point information of the face is extracted from the image input from the image photographing device, and the extracted feature point information is compared with the feature point information of the previously stored management object to recognize the input face. Similar technical features are described. However, in the prior art, there is a problem that time complexity and computational complexity are very high because a plurality of pieces of minutiae information are compared one by one and sorted and provided in order of degree of similarity. This means that you will instantly recognize those entering or leaving a particular business location, such as a sales office (such as a department store, a mart or clothing store) that sells the goods, or a sales office that provides a specific service (such as a hospital, restaurant or bank) There is a limit to enabling proper action to be performed in real time.

반면에 본 발명은 범죄자, 비정상적인 고객, VIP고객 등과 같이 관리대상이 되는 관리대상자의 얼굴영상으로부터 취득한 특징점정보들 간의 유사도를 계산하여, 상기 계산한 유사도에 따라 적어도 하나 이상의 그룹으로 그룹핑하여 데이터베이스를 구축하고, 영상촬영장치를 통해 입력되는 사용자의 영상으로부터 추출한 얼굴의 특징정점보가 어느 그룹에 속하는지 판단하여 유사도 계산의 대상이 되는 특징점정보의 수를 획기적으로 줄여 관리대상자의 출현을 실시간으로 검출하고 이에 대한 조치를 즉각적으로 수행할 수 있도록 하는 것으로, 본 발명의 이러한 기술적 구성에 대해서 상기 선행기술은 기재하거나 시사하고 있지 않다.On the other hand, the present invention calculates similarities between minutia information acquired from facial images of a management target subject to be managed, such as criminals, abnormal customers, VIP customers, etc., and groups them into at least one group according to the calculated similarity, The number of feature point information to be subjected to the similarity calculation is remarkably reduced by judging to which group the feature vertex bone extracted from the user's image inputted through the image photographing apparatus belongs to which group, And the prior art is not described or suggested with respect to this technical construction of the present invention.

또한 한국등록특허 제0904916호(2009.07.01.)는 얼굴 인식 시스템 및 방법에 관한 것으로, 입력되는 얼굴영상으로부터 얼굴영역을 추출하고, 상기 추출한 얼굴영역의 각 픽셀에 대해서 주변 픽셀들과의 픽셀 값을 비교하여 변환영상을 산출하며, 상기 변환영상에 프로젝션 행렬을 곱하여 특징정보를 추출하여, 상기 추출한 특징정보와 기 저장된 인물영상의 특징정보를 비교하여 상기 입력영상의 얼굴을 인식하는 얼굴 인식 시스템 및 방법에 관한 것이다.Korean Patent Registration No. 0904916 discloses a face recognition system and method for extracting a face region from an input facial image, and for each pixel of the extracted facial region, A facial recognition system for extracting feature information by multiplying the transformed image by a projection matrix and comparing the extracted feature information with feature information of a previously stored portrait image to recognize a face of the input image; ≪ / RTI >

상기 선행기술은 특정 사용자의 얼굴영상으로부터 특징정보를 추출하여, 기 저장된 복수의 특징정보와 비교함으로써, 사용자의 얼굴을 인식하는 점에서 본 발명과 일부분 유사한 점이 있다. 그러나 개인별로 저장되는 특징정보는 복수의 특징요소로 구성되므로 특정 사용자의 얼굴영상으로부터 추출한 특징정보와 기 저장한 특징정보를 모두 매칭하여 사용자의 얼굴을 인식하는 상기 선행기술은 그 소요시간이 오래 걸리고 계산복잡도가 매우 높은 단점이 있다.The prior art is somewhat similar to the present invention in that feature information is extracted from a face image of a specific user and compared with a plurality of previously stored feature information to recognize a user's face. However, since the feature information stored for each individual is composed of a plurality of feature elements, the prior art that takes a long time to recognize the face of the user by matching both the feature information extracted from the face image of a specific user and the previously stored feature information There is a drawback that the computational complexity is very high.

반면에 본 발명은 관리대상자의 얼굴영상으로부터 추출되는 특징점정보들 간의 유사도를 계산하여, 상기 계산한 유사도에 따라 특징점정보들을 그룹화하고, 상기 각 그룹에 대한 대표특징점정보를 생성하여 저장하고, 입력되는 영상으로부터 추출한 사용자의 얼굴에 대한 특징점정보와 상기 생성한 대표특징점정보만을 비교함으로써, 비교대상의 특징점정보를 획기적으로 줄여 사용자의 얼굴을 실시간으로 인식하여, 상기 사용자에 대한 고객관리를 즉각적으로 수행할 수 있도록 하는 것이다.On the other hand, according to the present invention, the similarity degree between the feature point information extracted from the facial image of the management subject is calculated, the feature point information is grouped according to the calculated degree of similarity, the representative feature point information for each group is generated and stored, Only the minutia information of the user's face extracted from the image and the generated minutia information are compared with each other to dramatically reduce the minutia information of the comparison target to recognize the user's face in real time and to perform the customer management for the user immediately .

그러나 상기 선행기술은 단순히 특징정보만을 이용하여 사용자의 얼굴을 인식하는 정도에 그치고 있을 뿐, 본 발명에서와 같이 관리대상자의 얼굴에 대한 특징점정보를 유사도에 따라 그룹핑하고 상기 각 그룹에 대한 대표특징점정보를 이용하여 사용자의 얼굴을 신속하게 인식함으로서, 고객관리를 즉각적이고 효율적으로 수행할 수 있도록 하는 방식에 대한 기술적 구성을 제시하고 있지 못하므로 본 발명과 상기 선행기술은 서로 다른 기술적 구성임을 손쉽게 확인할 수 있다.However, according to the present invention, the prior art is limited to only recognizing the face of the user using only the feature information. As in the present invention, the feature point information of the face of the management subject is grouped according to the degree of similarity, The present invention and the prior art can easily identify the different technical configurations since the present invention does not provide a technical configuration for a method of promptly recognizing a user's face and thereby performing customer management promptly and efficiently have.

즉 상기 언급한 선행기술들은 영상촬영장치로부터 입력되는 사용자의 얼굴영상으로부터 추출되는 특징점정보와 데이터베이스에 저장되어 있는 인물영상의 특징점정보를 단순 비교하여 사용자를 인식하는 구성을 제시하고는 있으나, 유무선 네트워크 또는 영상촬영장치로부터 수집되는 관리대상자의 얼굴영상으로부터 특징점정보만을 추출하여 저장함으로써, 관리대상자에 대한 개인정보를 익명화하며, 상기 저장한 특징점정보들 간의 유사도에 따라 특징점정보별로 그룹화하고, 각 그룹에 대한 대표특징점정보를 생성하여 데이터베이스화함으로써, 특정 사용자의 얼굴영상에 대한 특징점정보를 이용하여 해당 사용자가 관리대상자인지에 대한 여부를 판단하는 경우에도, 기 저장된 모든 얼굴영상에 대한 특징점정보를 고려하지 않고, 상기 특정 사용자의 특징점정보와 상기 각 그룹별 대표특징점정보에 대해서만 유사도 계산을 수행할 수 있도록 하여, 상기 사용자가 관리대상자인지에 대한 여부를 신속하게 판단함으로써, 상기 사용자에 대한 적절한 조치를 실시간적으로 취할 수 있도록 하는 본 발명의 기술적 구성과는 분명한 차이가 있다.That is, although the above-mentioned prior arts disclose a configuration in which a user is recognized by simply comparing minutia information extracted from a user's facial image input from a radiographic apparatus and minutia information of a person image stored in a database, Or personal information about the person to be managed by extracting and storing only the minutia information from the facial image of the management subject collected from the image photographing apparatus and grouping them according to the minutia information according to the degree of similarity between the stored minutia information, Even when the user is judged whether the user is a management subject by using the minutia information of the face image of a specific user, minutia information about all previously stored face images is not considered However, It is possible to perform the similarity calculation only for the minutiae information of the user and the representative minutia information of each group to quickly determine whether or not the user is the management target so that the user can take appropriate measures in real time There is a clear difference from the technical structure of the present invention.

본 발명은 상기와 같은 문제점을 해결하기 위해 창작된 것으로서, 절도, 상해, 폭행, 성범죄 등을 포함한 범죄자와 영업방해, 악성고객, 공갈, 협박 등의 경력이 있는 비정상적인 고객을 비롯하여, VIP고객과 같은 우수고객을 포함하는 관리대상의 얼굴영상으로부터 특징점정보만을 추출하여 수치데이터로 저장함으로써, 얼굴영상에 의해 노출되는 개인정보를 식별할 수 없도록 하고, 실시간으로 촬영되어 수집되는 사용자의 영상으로부터 얼굴에 대한 특징점정보와 상기 저장한 특징점정보를 비교하여 해당 사용자의 얼굴을 인식하기 위한 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a system and a method for preventing unauthorized customers including aft, injury, assault, sex offense, It is possible to prevent the personal information exposed by the facial image from being distinguishable by extracting only the characteristic point information from the facial image including the superior customer and storing the extracted characteristic point information as numerical data, And to provide a system and method for recognizing a face of a user by comparing feature point information with the stored feature point information.

또한 본 발명은 절도, 상해, 폭행, 성범죄 등을 포함한 범죄자와 영업방해, 악성고객, 공갈, 협박 등의 경력이 있는 비정상적인 고객을 비롯하여, VIP고객과 같은 우수고객을 포함하는 관리대상자에 대한 특징점정보들 간의 유사도 계산을 통해 유사도가 높은 복수의 특징점정보끼리 미리 그룹핑하여 저장하고, 특정 사용자의 얼굴을 인식하기 위한 과정에서, 상기 특정 사용자의 특징점정보와 상기 각 그룹별로 생성되는 대표특징점정보에 대한 유사도 계산에 의해 선별된 그룹 내 특징점정보에 대해서만 유사도 계산을 수행함으로써, 상기 사용자의 얼굴인식을 고속으로 수행할 수 있도록 하는 시스템 및 방법을 제공하는 것을 목적으로 한다.The present invention also relates to a method and apparatus for detecting abnormalities of a person to be managed including an abnormal customer such as aft, injury, assault, sex offense, and an abnormal customer having a career interruption, malicious customer, The feature point information of the specific user and the representative point information of each group are stored in advance in the process of grouping and storing a plurality of pieces of feature point information having a high similarity degree by calculating the similarity between the specific user and the representative point information, And performing similarity calculation only on the minutiae point information in the group selected by calculation so that the face recognition of the user can be performed at a high speed.

또한 본 발명은 상기 각 그룹별 대표특징점정보를 주기적으로 재생성하거나, 보정할 수 있도록 함으로써, 더욱 정확하게 사용자의 얼굴을 인식할 수 있도록 하는 시스템 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a system and method for more accurately recognizing a user's face by periodically regenerating or correcting representative minutia information for each group.

또한 본 발명은 미리 정해진 기간 동안 유사도 비교대상에 선정되지 않는 특징점정보는 데이터베이스에서 자체적으로 제거할 수 있도록 함으로써, 특정 사용자의 특징점정보에 대해 유사도 계산의 대상이 되는 특징점정보의 수를 줄여 더욱더 고속으로 사용자의 얼굴을 인식할 수 있도록 하는 시스템 및 방법을 제공하는 것을 목적으로 한다.In addition, the present invention allows the minutia information that is not selected for the similarity comparison object to be removed in the database itself for a predetermined period of time, thereby reducing the number of minutia information to be subjected to the similarity calculation for the minutia information of the specific user, And a system and a method for enabling a user to recognize a face of a user.

또한 본 발명은 주기적으로 관리대상자에 대한 특징점정보를 업데이트하여 저장함으로써, 관리대상자의 출입을 더욱 정확하게 인식하여 최적의 고객관리를 수행할 수 있도록 하는 시스템 및 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a system and method for periodically updating minutia information for a management subject and storing the updated minutia information for the management target person so as to more accurately recognize the entrance and exit of the management target person so as to perform optimal customer management.

본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 시스템은복수의 관리대상자 및 사용자의 얼굴영상으로부터 특징점정보를 추출하는 특징점정보 추출부, 상기 추출한 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 그룹핑부 및 상기 추출한 사용자의 특징점정보와 상기 관리대상자의 특징점정보 사이의 유사도를 계산하여 사용자의 얼굴을 실시간으로 인식하는 사용자 얼굴 인식부를 포함하는 것을 특징으로 한다.A learning-type real-time guidance system based on face recognition according to an embodiment of the present invention includes a feature point information extracting unit for extracting feature point information from a plurality of face images of a management subject and a user, And a user face recognizing unit for recognizing the face of the user in real time by calculating the similarity degree between the minutiae information of the extracted user and the minutia information of the management target person.

또한 상기 그룹핑부는, 상기 추출한 복수의 관리대상자에 대한 특징점정보들 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 그룹화하거나, 상기 관리대상자의 특징점정보를 학습하여 눈, 코, 입, 턱 또는 이들의 조합을 포함하는 얼굴요소들의 선형적 또는 비선형적 분포에 대한 패턴을 검출하고, 상기 패턴에 대한 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 클러스터링함으로써 특징점정보들을 그룹화하는 것을 특징으로 한다.In addition, the grouping unit may calculate the similarities between the minutia information of the plurality of extracted subjects to be managed, group the minutia information according to the calculated similarity, or learn the minutia information of the to-be-managed person, Or a combination thereof, calculates a similarity to the pattern, and clusters the minutia information according to the calculated similarity to group the minutia information. .

또한 상기 그룹핑부는, 상기 유사그룹별 대표특징점정보를 생성하고 상기 생성한 대표특징점정보를 상기 유사그룹별로 매핑하여 데이터베이스에 저장하는 것을 더 포함하며, 상기 대표특징점정보는, 상기 유사그룹별 특징점정보들에 대한 평균값 또는 중간값 계산을 통해 생성되며, 상기 유사그룹별 특징점정보들이 새롭게 추가되거나 삭제되는 경우 이를 반영한 새로운 대표특징점정보로 대체되거나 보정되는 것을 특징으로 한다.The grouping unit may further include generating representative minutia information for each similar group, mapping the generated minutia information to the similar group, and storing the representative minutia information in a database, wherein the representative minutia information includes at least one of minutia information And when new or added minutiae information for the similar group is newly added or deleted, the new minutiae point information is replaced or corrected by new representative minutia information.

또한 상기 사용자 얼굴 인식부는, 상기 추출한 사용자의 특징점정보와 상기 유사그룹별 대표특징점정보 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 적어도 하나 이상의 대표특징점정보에 대한 유사그룹을 선별하며, 상기 선별한 유사그룹에 해당하는 관리대상자의 특징점정보와 상기 사용자의 특징점정보 사이의 유사도를 계산하여, 상기 계산한 유사도에 따라 관리대상자의 특징점정보를 선택함으로서, 사용자의 얼굴을 인식하는 것을 특징으로 한다.The user's face recognizing unit may calculate a similarity degree between the extracted minutiae information of the user and the representative minutiae information of the similar group, select a similar group for at least one representative minutia information according to the calculated similarity, The similarity degree between the minutiae point information of the management subject corresponding to the similar group and the minutiae point information of the user is calculated and the minutiae information of the management subject is selected according to the calculated similarity degree to recognize the face of the user.

또한 상기 얼굴인식을 통한 학습형 실시간 안내 시스템은, 상기 인식한 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자 유형, 상기 인식한 사용자의 특징점정보 또는 이들의 조합을 관리자단말로 전송하는 알림부;를 더 포함하며, 상기 관리대상자 유형은 범죄자의 유형, 비정상적인 고객의 유형 또는 우수고객의 유형을 포함하는 것을 특징으로 한다.In addition, the learning-type real-time guidance system based on face recognition may further include a notification unit that transmits a face image of the recognized user, a type of a management object to which the recognized user belongs, minutia information of the recognized user, Wherein the management object type includes a type of a criminal, an abnormal client type, or a type of superior client.

또한 상기 얼굴인식을 통한 학습형 실시간 안내 시스템은, 상기 관리대상자 특징점정보가 미리 설정한 기간 이상 사용자의 얼굴을 인식하기 위한 상기 유사도의 계산에 이용되지 않는 경우, 상기 데이터베이스에서 자동적으로 삭제하는 것을 특징으로 한다.The learning-type real-time guidance system based on face recognition may automatically delete the management subject's minutia information in the database when the management subject's minutia information is not used for calculation of the similarity for recognizing the user's face for a predetermined period or more .

아울러 본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 방법은 복수의 관리대상자 및 사용자의 얼굴영상으로부터 특징점정보를 추출하는 특징점정보 추출 단계, 상기 추출한 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 그룹핑 단계 및 상기 추출한 사용자의 특징점정보와 상기 관리대상자의 특징점정보 사이의 유사도를 계산하여 사용자의 얼굴을 실시간으로 인식하는 사용자 얼굴 인식 단계를 포함하는 것을 특징으로 한다.In addition, a learning-type real-time guidance method using face recognition according to an embodiment of the present invention includes a minutia information extraction step of extracting minutia information from a plurality of face images of a management subject and a user, a minutia information extraction step of extracting minutia information of the extracted minita- A grouping step of grouping the extracted feature points of the user into the groups, and a user face recognition step of recognizing the face of the user in real time by calculating a similarity degree between the minutiae information of the extracted user and the minutia information of the management object.

또한 상기 그룹핑 단계는, 상기 추출한 복수의 관리대상자에 대한 특징점정보들 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 그룹화하거나, 상기 관리대상자의 특징점정보를 학습하여 눈, 코, 입, 턱 또는 이들의 조합을 포함하는 얼굴요소들의 선형적 또는 비선형적 분포에 대한 패턴을 검출하고, 상기 패턴에 대한 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 클러스터링함으로써 특징점정보들을 그룹화하는 것을 특징으로 한다.The grouping step may include grouping minutiae information according to the calculated degree of similarity, or learning minutia information of the to-be-managed person to calculate eye, nose, mouth, A jaw or a combination thereof, calculating a degree of similarity with respect to the pattern, and grouping the feature point information by clustering the feature point information according to the calculated degree of similarity .

또한 상기 그룹핑 단계는, 상기 유사그룹별 대표특징점정보를 생성하고 상기 생성한 대표특징점정보를 상기 유사그룹별로 매핑하여 데이터베이스에 저장하는 것을 더 포함하며, 상기 대표특징점정보는, 상기 유사그룹별 특징점정보들에 대한 평균값 또는 중간값 계산을 통해 생성되며, 상기 유사그룹별 특징점정보들이 새롭게 추가되거나 삭제되는 경우 이를 반영한 새로운 대표특징점정보로 대체되거나 보정되는 것을 특징으로 한다.Further, the grouping step may further include generating representative minutia information for each similar group, mapping the generated minutia information to the similar group, and storing the representative minutia information in a database, and the representative minutia information may include minutia information And when new or added minutia information for each similar group is newly added or deleted, it is replaced or corrected by new representative minutia information reflecting the minutia information.

또한 상기 사용자 얼굴 인식 단계는, 상기 추출한 사용자의 특징점정보와 상기 유사그룹별 대표특징점정보 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 적어도 하나 이상의 대표특징점정보에 대한 유사그룹을 선별하며, 상기 선별한 유사그룹에 해당하는 관리대상자의 특징점정보와 상기 사용자의 특징점정보 사이의 유사도를 계산하여, 상기 계산한 유사도에 따라 관리대상자의 특징점정보를 선택함으로서, 사용자의 얼굴을 인식하는 것을 특징으로 한다.Also, the user face recognizing step may include calculating similarity between the extracted feature point information of the user and representative feature point information of each similar group, selecting similar groups for at least one representative feature point information according to the calculated similarity, A similarity degree between the minutiae point information of the management subject corresponding to a similar group and the minutiae point information of the user is calculated and the minutiae information of the management subject is selected according to the calculated similarity to recognize the face of the user.

또한 상기 얼굴인식을 통한 학습형 실시간 안내 방법은, 상기 인식한 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자 유형, 상기 인식한 사용자의 특징점정보 또는 이들의 조합을 관리자단말로 전송하는 알림 단계를 더 포함하며, 상기 관리대상자 유형은 범죄자의 유형, 비정상적인 고객의 유형 또는 우수고객의 유형을 포함하는 것을 특징으로 한다.Also, the learning-type real-time guidance method using face recognition may include a notification step of transmitting the facial image of the recognized user, the type of the management object to which the recognized user belongs, the minutia information of the recognized user, Wherein the management subject type includes a type of a criminal, an abnormal customer type, or a type of superior customer.

또한 상기 얼굴인식을 통한 학습형 실시간 방법은, 상기 관리대상자 특징점정보가 미리 설정한 기간 이상 사용자의 얼굴을 인식하기 위한 상기 유사도의 계산에 이용되지 않는 경우, 상기 데이터베이스에서 자동적으로 삭제하는 것을 특징으로 한다.The learning-based real-time method using face recognition is automatically deleted from the database when the management subject characteristic point information is not used for calculation of the similarity for recognizing a user's face for a predetermined period or more do.

본 발명은 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법에 관한 것으로, 복수의 얼굴에 대한 특징점정보를 추출하고, 상기 추출한 특징점정보에 그룹핑 기술을 적용하여 특정 사용자에 대한 얼굴을 인식하기 위한 과정에서 모든 특징점정보에 대한 유사도 계산을 수행하지 않고, 사용자의 얼굴에 대한 특징점정보를 토대로 선별된 그룹 내의 특징점정보들에 대해서만 유사도 계산을 수행할 수 있도록 함으로써, 상기 사용자의 얼굴을 인식하는데 소요되는 시간을 현저하게 줄일 수 있는 효과가 있다.The present invention relates to a learning-type real-time guidance system and method for recognizing a face of a specific user by extracting minutia information about a plurality of faces and applying a grouping technique to the extracted minutia information, It is possible to perform similarity calculation only for the minutia information in the selected group based on the minutia information about the face of the user without performing the similarity calculation for all minutia information in the process, The time can be remarkably reduced.

또한 본 발명은 그룹별 대표특징점정보와 사용자의 특징점정보를 비교하여 해당 사용자가 관리대상자에 속하는지에 대한 여부를 신속하게 판단하여 관리자에게 통보함으로써, 상기 사용자에 대한 고객관리를 즉각적으로 수행할 수 있도록 하는 효과가 있다. Also, according to the present invention, the representative minutiae information of each group is compared with the minutia information of the user to promptly determine whether the user belongs to the management subject, and notify the manager to promptly perform the customer management for the user .

도 1은 본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법을 개략적으로 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 방법을 설명하기 위해 나타낸 도면이다.
도 3은 본 발명의 또 다른 일 실시예에 따른 관리대상자의 특징점정보를 복수의 유사 클러스터로 클러스터링 방법을 설명하기 위해 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 시스템에 있어서, 안내 장치의 구성을 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 사용자의 얼굴을 인식하기 위한 기준 데이터인 관리대상자의 특징점정보를 데이터베이스화하는 절차와 이를 이용하여 사용자 얼굴 인식하고 인식결과를 관리자단말로 전송하는 알림과정에 대한 절차를 상세히 설명하도록 한다.
FIG. 1 is a conceptual diagram for schematically explaining a learning-type real-time guidance system through face recognition and a guidance method thereof according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a method of grouping minutiae information of a management subject into a plurality of similar groups according to an embodiment of the present invention. Referring to FIG.
3 is a view for explaining a method of clustering minutiae information of a management subject to a plurality of similar clusters according to another embodiment of the present invention.
FIG. 4 is a block diagram illustrating a configuration of a guide device in a learning-type real-time guidance system using face recognition according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a procedure of databaseing minutiae information of a management subject, which is reference data for recognizing a face of a user according to an embodiment of the present invention, and recognizing a user face using the minutiae information and transmitting a recognition result to the administrator terminal Describe the procedure in detail.

이하, 첨부한 도면을 참조하여 본 발명의 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법에 대한 바람직한 실시 예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. 또한 본 발명의 실시 예들에 대해서 특정한 구조적 내지 기능적 설명들은 단지 본 발명에 따른 실시 예를 설명하기 위한 목적으로 예시된 것으로, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는 것이 바람직하다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of a learning-type real-time guidance system using face recognition and a guidance method thereof according to the present invention will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements. Furthermore, specific structural and functional descriptions for embodiments of the present invention are presented for the purpose of describing an embodiment of the present invention only, and, unless otherwise defined, all terms used herein, including technical or scientific terms Have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as ideal or overly formal in the sense of the art unless explicitly defined herein .

도 1은 본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법을 개략적으로 설명하기 위한 개념도이다.FIG. 1 is a conceptual diagram for schematically explaining a learning-type real-time guidance system through face recognition and a guidance method thereof according to an embodiment of the present invention.

도 1에 도시한 바와 같이 얼굴인식을 통한 학습형 실시간 안내 시스템(10)은 절도, 상해, 폭행, 성범죄 등을 포함한 범죄자와 영업방해, 악성고객, 공갈, 협박, 절도 등의 경력이 있는 비정상적인 고객 및 VIP 고객과 같은 우수고객을 포함하는 관리대상자의 얼굴에 대한 특징점정보를 수집하여, 상기 수집한 관리대상자의 얼굴에 대한 특징점정보를 토대로 사용자의 얼굴을 인식하는 얼굴인식을 통한 학습형 실시간 안내 장치(100), 사용자의 영상을 촬영하는 적어도 하나 이상의 영상촬영장치(200), 사용자의 얼굴을 인식하기 위한 기준이 되는 레퍼런스(Reference) 데이터를 저장하는 데이터베이스(300), 범죄자에 대한 얼굴영상 및 이와 관련된 정보를 제공하는 범죄자 데이터베이스(400) 및 관리자가 구비하는 관리자단말 또는 이들의 조합을 포함하여 구성된다.As shown in FIG. 1, the learning-based real-time guidance system 10 using facial recognition includes an abnormal client having a history of criminal activity including theft, injury, assault, sex crime, etc., and business interruptions, malicious customers, A real-time guidance device for learning based on face recognition for recognizing a face of a user based on minutia information about the face of the person to be managed, collecting minutia information about a face of a person to be managed including an excellent customer such as a VIP customer, At least one image capturing device 200 for capturing an image of a user, a database 300 for storing reference data serving as a reference for recognizing a user's face, a facial image for a criminal, A criminal database 400 for providing relevant information, an administrator terminal provided by the administrator, or a combination thereof.

또한 얼굴인식을 통한 학습형 실시간 안내 장치(이하, 안내 장치라 칭함)(100)는 복수의 영상촬영장치(200)로부터 촬영되는 사용자의 얼굴을 인식하기 위해 우선, 기준이 되는 레퍼런스 데이터인 관리대상자에 대한 특징점정보를 수집하여 데이터베이스화한다.In order to recognize a face of a user photographed from a plurality of image capturing apparatuses 200, a learning-type real-time guide apparatus (hereinafter, referred to as a guide apparatus) And collects the minutia information about the minutiae.

즉, 상기 안내 장치(100)는 수집되는 관리대상자의 얼굴영상으로부터 얼굴의 구성요소인 눈, 코, 입, 턱 등에 대한 위치 및 형태를 포함하는 특징점정보를 추출하여 저장함으로써, 상기 저장한 관리대상자에 대한 특징점정보를 특정 사용자의 얼굴을 인식하기 위한 레퍼런스 데이터로 사용한다.That is, the guide apparatus 100 extracts and stores minutia information including positions and shapes of eyes, noses, mouths, tits, etc., which are components of a face, from the face image of the management subject to be collected, Is used as reference data for recognizing a face of a specific user.

또한 관리대상자의 특징점정보는, 상기 영상촬영장치(200)에 의해 촬영되는 특정 사용자의 얼굴을 인식하기 위한 것으로, 그 대상은 공개된 범죄자의 얼굴영상, 절도, 난동, 영업방해 등과 같이 영업소의 업무를 방해한 비정상적인 고객 및 VIP 고객등과 같은 우수고객의 얼굴영상으로부터 추출되어 수집된다.Further, the feature point information of the management subject is for recognizing the face of a specific user photographed by the image photographing apparatus 200, and the object is a face image of a criminal who has been disclosed, theft, Such as an abnormal customer or VIP customer who interferes with the user's face image.

또한 공개된 범죄자의 얼굴에 대한 특징점정보는 범죄자 데이터베이스(400)로부터 수집되는 범죄자의 얼굴에 대한 몽타주(montage), 사진, 이미지 또는 이들의 조합을 포함하는 영상으로부터 얼굴영역을 검출하여 추출된다.Also, the minutia information about the face of the public criminal is extracted by detecting the face area from the image including the montage, photograph, image or a combination of the criminal's face collected from the criminal database 400.

또한 비정상적인 고객에 대한 특징점정보는, 비정상적인 고객의 영상을 촬영한 영상촬영장치(200)에 의해 촬영된 영상으로부터 얼굴영역을 검출하여 추출되며, VIP 고객등과 같은 우수고객에 대한 특징점정보는, 우수고객을 촬영한 촬영영상으로부터 얼굴영역을 검출하여 추출된다.In addition, the minutia information about the abnormal customer is detected by extracting the face area from the image photographed by the image photographing apparatus 200 that photographs the abnormal customer image, and the minutia information for the good customer such as the VIP customer is excellent The face region is extracted from the photographed image of the customer.

또한 얼굴영역은, 에이다 부스트(Ada boost) 알고리즘(Algorithm)등과 같이 영상으로부터 배경을 분리하여 얼굴을 세그멘테이션(Segmentation)하는 방법을 이용하여 검출할 수 있다.In addition, the face region can be detected using a method of segmenting the face by separating the background from the image such as the Ada boost algorithm (Algorithm).

한편 상기 에이다 부스트 알고리즘은 특정 영상으로부터 관심영역인 ROI(Region Of Interest, ROI)영역을 검출하는 대표적인 기계학습 방법이며, 주지의 기술이므로 상세한 설명은 생략하도록 한다.Meanwhile, the AdaBoost algorithm is a typical machine learning method for detecting a region of interest (ROI) region, which is a region of interest, from a specific image and is a well-known technology, and thus a detailed description thereof will be omitted.

또한 얼굴영상에 대한 특징점정보는, 기하학(Geometry)정보를 이용한 방법, 미리 정의한 템플릿(Template)을 이용한 방법, 외형(Appearance)을 이용한 방법 등과 같이 얼굴영상으로부터 특징점정보를 추출하기 위한 다양한 방법들을 적용하여 추출될 수 있다.In addition, the minutia information for the facial image can be obtained by various methods for extracting minutia information from facial images such as a method using geometry information, a method using a predefined template, and a method using an appearance .

한편 상기 기하학 정보를 이용한 방법은 얼굴요소(예: 눈, 코, 입 등)의 상대적 위치 및 크기와 같은 기하 정보를 이용하여 홍채, 양안, 미간 거리나 눈 모양 등의 곡률 등을 측정함으로써 특징점정보를 추출하는 기술이며, 상기 템플릿을 이용한 방법은 미리 설계된 템플릿을 정하고 에너지 함수를 정의하여 그 값을 계산한 후, 최소 에너지 값을 가지는 템플릿을 최적의 해로 이용함으로써, 특징점정보를 추출하는 기술이다. 또한 외형을 이용한 방법은, 얼굴의 각 요소(예: 눈, 코, 입 등)에 대해 2차원 패턴 매칭을 수행하여 PCA(Principal Component Analysis) 기법, 가보필터를 이용한 수학적 연산 등을 활용해 특징벡터(Feature Vector)를 검출함으로써, 특징점정보를 추출하는 기술이다. 상기에서 설명한 기술들은 얼굴영상으로부터 얼굴의 구성요소에 대한 특징점정보(눈, 코, 입 턱 등의 위치 및 형태)를 추출하는 일반적인 기술이므로 상세한 설명은 생략하도록 한다.On the other hand, the method using the geometric information is performed by measuring the curvature of the iris, the eyes, the eyes, the eyes, and the like using the geometric information such as the relative position and size of the face element The method using the template extracts minutia information by defining a predetermined template, calculating an energy function, calculating a value of the template, and using the template having the minimum energy value as an optimal solution. In addition, the method using the outline is performed by performing two-dimensional pattern matching on each element (eg, eye, nose, mouth, etc.) of the face and using a Principal Component Analysis (PCA) technique and a mathematical operation using a Gabor filter, (Feature Vector), thereby extracting the minutia information. The techniques described above are general techniques for extracting feature point information (position, shape, etc. of eyes, nose, mouth, and the like) for a component of a face from a facial image, and a detailed description thereof will be omitted.

또한 범죄자 얼굴에 대한 영상은 범죄자 데이터베이스(400)로부터 주기적으로 수집될 수 있으며, 상기 범죄자 데이터베이스(400)에 저장되는 범죄자 얼굴에 대한 영상은 일반인에게 공개된 영상을 사용한다.Also, the image of the criminal's face can be periodically collected from the criminal's database 400, and the image of the criminal's face stored in the criminal's database 400 uses the image disclosed to the public.

또한 범죄자 데이터베이스(400)는, 공식적으로 관리가 되고 있는 성폭행범, 강도, 절도범 등과 같이 범죄자에 대한 정보를 저장하는 저장소를 의미하는 것으로, 경찰청, 지방자치단체, 여성부 등과 같이 범죄자에 대한 정보를 관리하는 기관에서 관리되는 데이터베이스일 수 있다.Also, the criminal database 400 is a repository for storing criminal information such as sexually assaultive officers, robbers, and thieves who are officially under control, and is capable of managing information on criminals such as police authorities, local governments, Lt; / RTI > database.

또한 범죄자 데이터베이스(400)를 통해 수집되는 범죄자에 대한 얼굴영상은 몽타주, 사진, 이미지 또는 이들의 조합을 포함한다.Also, the face image for the offender collected through the criminal database 400 includes a montage, a photograph, an image, or a combination thereof.

또한 안내 장치(100)는 범죄자 데이터베이스(400)로부터 수집되는 범죄자의 영상, 상기 영상촬영장치(200)로부터 촬영된 비정상적인 고객 및 우수고객의 영상을 세그멘테이션하여 해당 영상에 포함되어 있는 얼굴부분에 대한 영상을 검출한다.Also, the guiding device 100 segments the image of the criminal collected from the criminal database 400, the image of the abnormal customer and the superior customer photographed from the image photographing apparatus 200, and displays the image of the face part included in the corresponding image .

또한 상기 검출한 얼굴영상으로부터 특징점정보를 추출하여, 상기 추출한 특징점정보만을 데이터베이스(300)에 저장한다. 상기 특징점정보는 눈, 코, 입, 턱 등과 같이 얼굴요소에 대한 특징을 수치데이터로 표현되기 때문에 특징점정보만으로는 다른 정보와 결합하여 얼굴영상을 재생하는 것이 불가능하며, 개인정보를 역으로도 도출이 불가능하다.Further, the feature point information is extracted from the detected face image, and only the extracted feature point information is stored in the database 300. Since the feature point information is expressed by numerical data such as eyes, nose, mouth, jaw, etc., it is impossible to reproduce the face image by combining with other information only by the feature point information, impossible.

즉, 안내 장치(100)는 개인의 얼굴영상 자체를 저장하는 것이 아니라, 상기 얼굴영상으로부터 특징점정보를 추출하여 저장함으로써, 얼굴영상에 대한 개인의 얼굴정보를 익명화하여, 얼굴영상에 의한 개인정보의 노출을 방지할 수 있도록 한다.That is, the guide apparatus 100 does not store the face image of the individual but extracts and stores the minutia information from the face image, thereby anonymizing the face information of the individual with respect to the face image, To prevent exposure.

또한 안내 장치(100)는 상기 추출한 특징점정보를 유사한 특징을 보이는 특징점정보끼리 그룹핑하여 저장하며, 상기 저장되는 각각의 특징점정보는 특징점관련 정보를 나타내는 클래스레이블과 함께 매핑되어 저장된다. 한편 상기 그룹핑은 도 2를 참조하여 상세히 설명하도록 한다.Also, the guide device 100 groups and stores the extracted minutia information together with similar minutia information, and the minutia information of each minutiae stored is mapped with a class label indicating minutia related information. The grouping will be described in detail with reference to FIG.

상기 특징점관련 정보는 해당 특징점정보가 어떤 관리대상자를 나타내는 지를 의미하는 것이다. 즉, 특징점관련 정보는 관리대상자의 유형을 나타내는 것으로, 예를 들어 특정 특징점정보가 범죄자인 경우, 이에 대한 관리대상자의 유형은 강도, 성폭행범 또는 절도범 등이 될 수 있으며, 비정상적인 고객인 경우에는 영업방해, 절도, 난동 또는 협박 등이 될 수 있다. 한편 특징점정보가 우수고객인 경우, 이에 대한 관리대상자의 유형은 VIP 또는 A급 등과 같이 레벨로 설정될 수 있다. The minutiae point related information indicates which management target person represents the minutiae point information. That is, the minutia related information indicates the type of the management subject. For example, when the specific minutia information is a criminal, the type of the management target person may be a robbery, a rape or a thief. In the case of an abnormal client, Disturbance, theft, riot or intimidation. On the other hand, if the minutiae information is an excellent customer, the type of the person to be managed may be set to a level such as a VIP or an A class.

이를 통해 특정 사용자의 특징점정보가 기 저장된 특징점정보와 매칭되어 사용자의 얼굴을 인식한 경우, 상기 매칭된 특징점정보의 클래스레이블을 확인하여, 해당 사용자가 속하는 관리대상자의 유형을 알 수 있도록 한다.When the feature point information of a specific user is matched with the previously stored feature point information and the face of the user is recognized, the class label of the matching feature point information is confirmed to know the type of the management subject to which the user belongs.

또한 안내 장치(100)는 영상촬영장치(200)로부터 실시간으로 촬영되는 영상을 취득하며, 상기 취득한 영상으로부터 사용자의 얼굴영상을 검출한다. 또한 안내 장치(100)는 사용자의 얼굴을 인식하기 위해 상기 검출한 사용자의 얼굴영상으로부터 해당 사용자의 특징점정보를 추출한다.Further, the guide device 100 acquires an image photographed in real time from the image photographing apparatus 200, and detects the user's face image from the acquired image. Also, the guide device 100 extracts feature point information of the user from the detected face image of the user to recognize the face of the user.

한편 영상촬영장치(200)는, 특정지역(예: 영업소 내)을 촬영하고, 촬영된 영상을 관리자에게 전송하는 보안용 카메라(예: CCTV(Closed Circuit Television))라 인 것이 바람직하지만, 보안 관리자 또는 영업소의 직원 등이 구비한 모바일단말을 포함할 수 있다. 즉, 상기 안내 장치(100)는 보안용 카메라뿐만 아니라 특정지역을 순찰하며 보안을 담당하는 보안 관리자, 또는 영업소의 직원 등이 구비한 모바일단말로부터 촬영된 사용자의 영상을 수집하여 해당 사용자의 얼굴을 인식할 수도 있다.On the other hand, the image capturing apparatus 200 is preferably a security camera (for example, a closed circuit television (CCTV)) that captures a specific area (for example, in a business office) and transmits the captured image to the administrator. Or a mobile terminal provided by an employee of a sales office or the like. That is, the guide device 100 collects images of a user photographed from a mobile terminal equipped with a security camera patroling a specific area, a security manager responsible for security, or an employee of a business office, It can also be recognized.

또한 안내 장치(100)는 상기 추출한 사용자의 특징점정보와 기 저장하여 관리되고 있는 그룹핑된 관리대상자의 특징점정보를 상호 비교하여, 비교결과 미리 설정한 유사범위에 있다면, 해당 사용자의 얼굴영상, 상기 사용자가 속하는 관리대상자 유형, 상기 사용자의 특징점정보 또는 이들의 조합을 관리자에게 전송하여 즉각적인 조치를 취할 수 있도록 한다.Also, the guiding device 100 compares the minutiae information of the extracted user with the minutiae information of the grouped management subjects, which are stored and managed, and if they are within the similar range preset in the comparison result, The type of the management object to which the user belongs, the minutia information of the user, or a combination thereof, to the manager so that immediate action can be taken.

한편 상기 관리자는 상기 안내 장치(100)로부터 전송된 얼굴영상과 관리대상자 유형을 확인하여, 이에 대한 적극적인 대응을 수행하며, 설령 해당 사용자가 관리대상자가 아니어도, 관리자의 판단에 따라 해당 사용자에 대한 특징점정보를 저장할 필요가 있을 경우, 상기 데이터베이스(300)에 추가할 수 있다.On the other hand, the manager confirms the facial image and the type of the management subject transmitted from the guide apparatus 100, and performs an active correspondence to the facial image and the type of the management subject. Even if the user is not a management subject, If it is necessary to store the minutia information, it can be added to the database 300.

도 2는 본 발명의 일 실시예에 따른 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 방법을 설명하기 위해 나타낸 도면이다.FIG. 2 is a diagram illustrating a method of grouping minutiae information of a management subject into a plurality of similar groups according to an embodiment of the present invention. Referring to FIG.

도 2에 도시한 바와 같이 복수의 관리대상자에 대한 특징점정보는 유사한 특징을 보이는 특징점정보끼리 그룹핑된다.As shown in FIG. 2, the minutia information for a plurality of management subjects is grouped into minutia information showing similar characteristics.

한편 상기 그룹핑은 사용자의 얼굴을 인식하기 위해 비교되는 특징점정보의 수를 줄여, 상기 인식에 소요되는 시간을 단축시키기 위해 수행된다.On the other hand, the grouping is performed to reduce the number of minutia information to be compared to recognize a face of a user, thereby shortening the time required for the recognition.

즉, 안내 장치(100)는 상기 복수의 특징점정보 간의 유사도 계산을 통해 유사도가 높은 특징점정보별로 그룹핑하여, 사용자의 얼굴을 인식하기 위한 유사도 계산을 상기 특정 유사그룹 내의 특징점정보에 대해서만 수행할 수 있도록 함으로써, 신속하고 효율적으로 상기 사용자의 얼굴을 인식할 수 있도록 한다.That is, the guide apparatus 100 groups the feature point information with high degree of similarity by calculating the similarity between the plurality of feature point information, and performs similarity calculation for recognizing the user's face only to the feature point information within the specific similar group Thus, the face of the user can be recognized quickly and efficiently.

이를 위해 상기 안내 장치(100)는 그룹별 대표특징점정보를 생성하며, 사용자의 얼굴영상으로부터 추출한 사용자의 특징점정보와 상기 생성한 대표특징점정보 간의 유사도를 계산하여, 유사도가 높은 적어도 하나 이상의 유사그룹을 선택하고, 상기 선택한 유사그룹 내의 특징점정보들에 대해서만 유사도를 계산하여 해당 사용자의 얼굴을 고속으로 인식할 수 있도록 한다.To this end, the guide apparatus 100 generates representative minutia information for each group, calculates the similarity between the minutia information of the user extracted from the face image of the user and the generated minutiae representative point information, and calculates at least one similar group having high similarity And calculates the degree of similarity only for the minutia information in the selected similar group so that the face of the user can be recognized at high speed.

한편 유사도는 유클리디안 거리(Euclidean Distance), 맨하탄 거리(Manhattan Distance) 또는 해밍 거리(Hamming Distance)를 포함한 다양한 유사도 계산 방법을 통해 계산될 수 있으며, 유사도 계산 방법에 대한 제한을 두지 않는다.On the other hand, similarity can be calculated through various similarity calculation methods including Euclidean Distance, Manhattan Distance or Hamming Distance, and there is no limitation on the method of calculating the similarity.

또한 대표특징점정보는 특정 유사그룹을 대표하는 특징점정보로써, 특정 유사그룹 내의 특징점정보들에 대한 평균값 또는 중간값 계산을 통해 생성될 수 있다. 즉, 유사그룹 내의 모든 특징점정보들을 토대로 눈, 코, 입 또는 턱 등과 같은 얼굴 구성요소에 대한 위치, 형태 및 크기에 대한 평균값 또는 중간값을 계산하여 대표특징점정보를 생성할 수 있다.Also, the representative feature point information may be generated by calculating an average value or an intermediate value of the feature point information within a specific similar group as minutia information representative of a specific similar group. That is, the representative feature point information can be generated by calculating an average value or an intermediate value of the position, shape, and size of the face component such as eyes, nose, mouth, or jaw based on all the feature point information within the similar group.

한편 상기 대표특징점정보는 유사그룹 내의 특정 특징점정보를 선택하여, 상기 선택한 특정 특징점정보를 대표특징점정보로 이용할 수도 있다.On the other hand, the representative minutia information may be used to select specific minutia information within the similar group, and use the selected minutia information as representative minutia information.

또한 안내 장치(100)는 관리대상자에 대한 특징점정보를 주기적으로 수집하여, 사용자의 얼굴인식을 위한 데이터베이스(300)를 업데이트할 수 있다.Also, the guide device 100 may periodically collect minutia information about the management subject and update the database 300 for the face recognition of the user.

이때 주기적으로 수집되는 특징점정보와 상기 각 유사그룹별 대표특징점정보 간의 유사도를 계산하여, 계산결과 유사도가 제일 높은 대표특징점정보의 유사그룹에 추가하여 저장할 수 있으며, 상기 대표특징점정보를 생성하는 동일한 과정을 통해 새로운 대표특징점정보를 생성하여 대체하거나 기존의 대표특징점정보를 보정할 수 있다.In this case, the similarity between the feature point information collected periodically and the representative feature point information of each similar group may be calculated, and the result may be added to the similar group of the representative feature point information having the highest similarity degree and stored, and the same process of generating the representative feature point information The new representative minutia information can be generated and replaced or the existing minutia information can be corrected.

한편 관리대상자의 특징점정보에 기계학습을 적용하여 상기 복수의 관리대상자의 특징점정보 토대로 복수의 유사 클러스터로 그룹핑할 수도 있다. 이는 도 3을 참조하여 상세히 설명하도록 한다.On the other hand, machine learning may be applied to the minutiae information of the to-be-administered person to group them into a plurality of similar clusters based on the minutia information of the plurality of to-be-managed persons. This will be described in detail with reference to FIG.

도 3은 본 발명의 또 다른 일 실시예에 따른 관리대상자의 특징점정보를 복수의 유사 클러스터로 클러스터링 방법을 설명하기 위해 나타낸 도면이다.3 is a view for explaining a method of clustering minutiae information of a management subject to a plurality of similar clusters according to another embodiment of the present invention.

도 3에 도시한 바와 같이 복수의 관리대상자에 대한 특징점정보는 K-means 방법 또는 가우시안 혼합 모델(Gaussian Mixture Model) 방법 등과 같은 비지도 기계학습(Unsupervised Machine Learning)을 적용하여 특징점정보로 형성되는 유사한 패턴을 보이는 특징점정보끼리 클러스터링된다.As shown in FIG. 3, the minutiae information for a plurality of subjects to be managed may be classified into similar minutia information by applying Unsupervised Machine Learning, such as a K-means method or a Gaussian Mixture Model method, The feature point information showing the pattern is clustered.

즉, 안내 장치(100)는 복수의 관리대상자에 대한 특징점정보를 토대로, 눈, 코, 입 등에 대한 특징점으로 형성되는 패턴을 그룹핑하여 복수의 유사 클러스터를 생성한다.That is, the guiding device 100 generates a plurality of pseudo clusters by grouping patterns formed with minutiae points such as eyes, nose, mouth, etc., based on minutia information about a plurality of subjects to be managed.

또한 상기 안내 장치(100)는 눈, 코, 입 등에 대한 비슷한 양상의 패턴을 가지는 복수의 특징점정보를 그룹화하여 복수의 유사 클러스터를 생성하고, 상기 생성한 각각의 유사 클러스터에 대한 대표패턴을 생성한다. 이때 상기 생성한 대표패턴이 도 2를 참조하여 설명한 대표특징점정보가 된다.Also, the guide device 100 groups a plurality of pieces of minutia information having similar patterns of eyes, nose, mouth, etc. to generate a plurality of pseudo clusters, and generates a representative pattern for each of the pseudo clusters generated . At this time, the generated representative pattern is the representative minutia information described with reference to FIG.

상기 대표패턴은 복수의 영상촬영장치(200)로부터 입력되는 사용자의 얼굴을 인식하기 위한 영상이 입력되는 경우, 해당 사용자의 영상으로부터 추출한 특징점정보에 대한 유사 클러스터를 판별하기 위해 사용되는 것으로, 하나의 유사 클러스터에 포함되는 복수의 관리대상자에 대한 특징점정보를 대표하게 된다.The representative pattern is used to identify a similar cluster for minutia information extracted from the image of the user when an image for recognizing the user's face input from the plurality of image capturing apparatuses 200 is input. Minutia information for a plurality of management subjects included in the similar cluster is represented.

한편 상기 대표패턴은 해당 유사 클러스터 내의 특정 특징점정보로 형성되는 패턴을 선택함으로서 생성되거나, 또는 해당 유사 클러스터 내의 특징점정보들을 평균값 또는 중간값 계산을 통해 생성되는 특징점정보로 형성되는 패턴을 추출함으로서, 생성될 수 있다.On the other hand, the representative pattern is generated by selecting a pattern formed by specific minutia information in the similar clusters, or extracting a pattern formed of minutia information, which is generated through an average value or intermediate value calculation, of minutia information in the similar clusters, .

즉, 상기 안내 장치(100)는 특징점정보를 학습하여, 눈, 코, 입 등에 대한 선형적 분포 또는 비선형적 분포에 기반하여 해당 특징점들에 대한 패턴을 학습하여 검출하고, 유사도가 소정의 유사도 이상인 패턴들을 그룹화함으로서, 유사 클러스터를 생성한다. 이를 통해 사용자의 얼굴을 인식하기 위한 유사도 계산의 대상이 되는 경우의 수를 획기적으로 줄여 실시간으로 사용자의 얼굴을 인식할 수 있도록 한다.That is, the guide apparatus 100 learns minutia information and learns and detects a pattern for the minutiae on the basis of a linear distribution or a nonlinear distribution with respect to eyes, nose, mouth, and the like, By grouping the patterns, a pseudo cluster is created. Thus, the number of cases of the similarity calculation for recognizing the face of the user can be drastically reduced and the face of the user can be recognized in real time.

도 4는 본 발명의 일 실시예에 따른 얼굴인식을 통한 학습형 실시간 안내 시스템에 있어서, 안내 장치의 구성을 나타낸 블록도이다. FIG. 4 is a block diagram illustrating a configuration of a guide device in a learning-type real-time guidance system using face recognition according to an embodiment of the present invention.

도 4에 도시한 바와 같이 얼굴인식을 통한 학습형 실시간 안내 장치(100)는 영상촬영장치(200)로부터 실시간으로 촬영되는 사용자의 영상과, 관리대상자의 영상을 수집하는 영상수집부(110), 상기 수집한 영상으로부터 얼굴영상을 검출하는 얼굴영상 검출부(120), 상기 검출한 얼굴영상으로부터 특징점정보를 추출하는 특징점정보 추출부(130), 상기 수집한 관리대상자에 대한 영상으로부터 추출한 특징점정보를 그룹핑하는 그룹핑부(130), 상기 영상촬영장치(200)로부터 입력되는 사용자의 영상을 토대로 해당 사용자의 얼굴을 인식하는 사용자 얼굴 인식부(150), 상기 사용자 얼굴 인식부(150)에 의해 인식한 결과를 전송하는 알림부(160), 데이터베이스를 업데이트하는 데이터베이스 업데이트부(170) 및 제어부(180)를 포함하여 구성된다.As shown in FIG. 4, the learning-type real-time guidance apparatus 100 through face recognition includes an image collecting unit 110 for collecting a user's image photographed in real time from the image photographing apparatus 200, A feature point information extracting unit 130 for extracting feature point information from the detected face image, a feature point extracting unit 130 for extracting feature point information extracted from an image of the collected management subject, A user recognition unit 150 for recognizing a face of the user based on a user's image input from the image sensing device 200, a group recognition unit 150 for recognizing the user's face, A database update unit 170 for updating the database, and a control unit 180. The control unit 180 controls the operation of the database 180,

또한 영상수집부(110)는 네트워크 및 영상촬영장치(200)를 통해 관리대상자에 대한 얼굴영상을 주기적으로 수집하며, 영상촬영장치(200)를 통해 촬영되는 사용자의 영상을 실시간으로 수집한다.Also, the image collecting unit 110 periodically collects facial images of the management object through the network and the image capturing apparatus 200, and collects the images of the user captured through the image capturing apparatus 200 in real time.

한편 상기 수집되는 관리대상자의 영상은 사용자를 인식하기 위한 기준이 되는 레퍼런스 영상으로서, 상기 그룹핑부(150)에 의해 그룹핑되어 데이터베이스(300)에 저장된다.On the other hand, the images of the management subjects collected are grouped by the grouping unit 150 and stored in the database 300 as reference images that serve as a reference for recognizing users.

또한 상기 얼굴영상 검출부(120)는 상기 수집되는 영상으로부터 배경을 분리하여 얼굴에 대한 영상만을 검출한다.In addition, the face image detection unit 120 separates the background from the collected image and detects only the image of the face.

상기 검출은 에이다 부스트 알고리즘, 템플릿 매칭(Template Matching) 알고리즘 등과 같이 영상으로부터 얼굴과 배경을 분리하여 얼굴부분을 검출하는 다양한 알고리즘을 적용함으로써, 수행될 수 있으며, 본 발명에서 영상으로부터 얼굴부분을 검출하는 방법에 대해서는 그 제한을 두지 아니한다.The detection may be performed by applying various algorithms such as AdaBoost algorithm, Template Matching algorithm and the like to separate the face and the background from the image and detect the face part. In the present invention, There is no restriction on the method.

또한 특징점정보 추출부(130)는 상기 얼굴영상 검출부(120)에 의해 검출된 얼굴영상으로부터 특징점정보를 추출한다.The feature point information extraction unit 130 extracts feature point information from the face image detected by the face image detection unit 120.

상기 특징점정보는 얼굴의 구성부분인 눈, 코, 입 또는 턱 등과 같이 얼굴의 구성부분을 이루는 특징점들의 집합으로 구성된다.The minutia information is composed of a set of minutiae constituting constituent parts of the face such as eyes, nose, mouth, jaw or the like which is a constituent part of a face.

또한 상기 특징점정보 추출부(130)는 상기 얼굴영상이 관리대상자의 것인 경우에는 상기 추출한 특징점정보에 상기 관리대상자의 특징점관련 정보(즉, 관리대상자 유형)를 나타내는 클래스레이블을 매핑하여 상기 그룹핑부(140)로 제공한다.The minutia information extracting unit 130 maps the minutia information related to the minutiae point related information of the management subject (i.e., the management subject type) to the extracted minutia information when the face image belongs to the management subject, (140).

즉, 상기 특징점관련 정보는 특정 관리대상자에 대한 특징점정보가 어떠한 유형의 관리대상자인 것인지를 알 수 있도록 하는 것이다.That is, the minutia related information allows the minutiae information for a specific management target person to know what type of management target person is.

또한 상기 특징점정보 추출부(130)는 상기 얼굴영상 검출부(120)에 의해 검출된 얼굴영상이 사용자를 인식하기 위한 것일 때에는, 해당 얼굴영상으로부터 추출한 특징점정보를 사용자 얼굴 인식부(150)로 제공한다.When the face image detected by the face image detecting unit 120 is for recognizing the user, the feature point information extracting unit 130 provides the user's face recognizing unit 150 with the feature point information extracted from the face image .

또한 그룹핑부(140)는 복수의 관리대상자에 대한 특징점정보를 그룹핑하여 복수의 유사그룹으로 나누고, 각 유사그룹별 대표특징점정보를 생성하여 데이터베이스(300)에 저장한다. 이때 저장되는 상기 각 유사그룹별 특징점정보는 상기 사용자의 얼굴을 인식하기 위한 기준 데이터가 된다.Also, the grouping unit 140 groups the minutiae information about the plurality of management subjects into a plurality of similar groups, generates representative minutia information for each similar group, and stores the minutia information in the database 300. [ The minutiae information for each similar group stored at this time is reference data for recognizing the face of the user.

또한 그룹핑은 각 특징점정보들 간의 유사도 계산을 통해 유사도가 높은 특징점정보별로 분류함으로써 수행된다. 한편 기계학습을 이용하여 특징점정보들로 형성되는 패턴이 유사한 것끼리 클러스터링함으로써, 유사도가 높은 특징점정보별로 분류할 수 있음은 상술한 바와 같다.Also, the grouping is performed by classifying the pieces of feature point information having a high degree of similarity through calculation of similarities among pieces of feature point information. Meanwhile, as described above, the patterns formed by the minutia information are clustered by using the machine learning to classify the minutia information with high degree of similarity.

또한 사용자 얼굴 인식부(150)는 상기 특징점정보 추출부(130)로부터 제공되는 특정 사용자의 특징점정보와 기 저장된 관리대상자의 특징점정보를 이용하여 해당 사용자의 얼굴을 인식한다.Also, the user's face recognizing unit 150 recognizes the user's face using the feature point information of the specific user provided from the feature point information extracting unit 130 and the feature point information of the pre-stored management object.

또한 사용자 얼굴 인식부(150)는 사용자의 얼굴을 인식하기 위해 우선, 상기 사용자의 특징점정보와 상기 유사그룹별 대표특징점정보 간의 유사도 계산을 통해 미리 설정한 값보다 유사도가 높은 적어도 하나 이상의 유사그룹을 선택한다.In order to recognize the face of the user, the user's face recognizer 150 first calculates at least one similar group having higher similarity than the preset value through calculation of similarity between the user's minutia information and the similar minutia information Select.

다음으로 상기 선택한 유사그룹에 속하는 특징점정보와 상기 사용자의 특징점정보를 1:1 유사도 계산을 통해 유사도가 제일 높거나 또는 미리 설정한 값보다 높은 적어도 하나 이상의 특징점정보를 선택함으로써, 해당 사용자의 얼굴을 인식할 수 있다. 한편 상기 계산한 유사도가 미리 설정한 값보다 높지 않은 경우에는 해당 사용자는 관리대상자에 속하지 않는 다는 정보와 함께 상기 인식결과를 관리자에게 제공하거나 제공하지 않을 수 있다.Next, at least one minutia information having the highest degree of similarity or higher than a predetermined value is selected through the 1: 1 similarity calculation of the minutia information belonging to the selected similar group and the minutia information of the user, Can be recognized. On the other hand, if the calculated degree of similarity is not higher than a preset value, the user may not provide or provide the recognition result to the manager together with information indicating that the user does not belong to the management subject.

또한 알림부(160)는 상기 사용자 얼굴 인식부(150)를 통해 인식한 결과에 따라 이벤트가 발생한 경우(즉, 관리대상자의 출현), 상기 인식한 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자 유형(즉, 클래스레이블 정보), 상기 인식한 사용자의 특징점정보 또는 이들의 조합을 관리자단말로 전송하여 해당 사용자에 대한 즉각적인 조치를 취할 수 있도록 한다.In addition, the notification unit 160 may be configured to notify the user when the event occurs (that is, the management object appears) according to the recognition result through the user's face recognition unit 150, the face image of the recognized user, The user's type information (i.e., class label information), the minutiae information of the recognized user, or a combination thereof, to the administrator terminal so that the user can take immediate action.

즉, 사용자가 절도범으로 인식되는 경우, 해당 사용자의 얼굴영상, 클래스레이블정보 또는 이들의 조합을 포함하는 인식결과에 대한 정보를 관리자 단말로 전송하며, 이를 통해 관리자는 얼굴영상을 확인하여 적극적인 대응을 수행할 수 있다. 이때 상기 인식결과에 대한 정보 이외에 해당 사용자가 촬영된 영상촬영장치(200)의 좌표정보도 같이 제공될 수 있다. That is, when the user is recognized as a thief, information about the recognition result including the face image of the user, class label information, or a combination of them is transmitted to the administrator terminal, whereby the manager confirms the face image, Can be performed. At this time, in addition to the information on the recognition result, coordinate information of the image pickup apparatus 200 photographed by the user may also be provided.

한편 상기 관리자는 수신된 정보를 토대로 해당 사용자를 확인한 결과, 관리대상자가 아닌 경우에도 상기 특징점정보를 데이터베이스(300)에 저장할 필요가 있을 경우(예: 해당 사용자가 새로운 비정상적인 고객으로 인지되는 경우), 해당 사용자의 특징점정보를 데이터베이스(300)에 추가하여 저장할 수 있도록 상기 안내 장치(100)를 제어할 수 있다.On the other hand, if the manager needs to store the minutia information in the database 300 (for example, when the user is recognized as a new abnormal client) even when the user is not a management target as a result of checking the user based on the received information, It is possible to control the guide apparatus 100 so that the minutiae information of the user can be added to the database 300 and stored.

이때, 상기 안내 장치(100)의 데이터베이스 업데이트부(170)는 상기 특징점정보와 각 유사그룹별 대표특징점정보 간의 유사도 계산을 통해 특정 유사그룹 내에 추가함으로서, 데이터베이스(300)에 저장할 수 있다.At this time, the database update unit 170 of the guide device 100 may store the similarity information in the database 300 by adding the similarity information between the minutia information and the representative minutia information of each similar group into a specific similar group.

또한 알림부(160)는 상기에서 설명한 것과 같이 최종 인식결과에 대한 정보를 관리자 단말로 전송하는 것이 바람직하지만, 해당 사용자의 특징점정보와 상기 각 유사그룹별 대표특징점정보 간의 유사도 계산을 통해 인식한 결과를 상기 관리자에게 제공할 수도 있다.Also, it is preferable that the notification unit 160 transmits information on the final recognition result to the administrator terminal as described above. However, when the recognition unit 160 recognizes through the calculation of similarity between the minutiae information of the user and the representative minutia information of each similar group To the manager.

이때 제공되는 정보는 해당 사용자의 특정 관리대상자에 속하는 확률과 해당 사용자의 얼굴영상을 포함한다.The information provided at this time includes the probability of belonging to the specific management object of the user and the facial image of the user.

즉, 상기 알림부(160)는 특정 유사그룹에 속하는 복수의 특징점정보에 대한 특징점관련 정보를 참조하여 해당 유사그룹의 관리대상자 유형에 대한 확률을 계산하여 관리자단말로 전송할 수 있다.That is, the notification unit 160 may calculate the probability of the management subject type of the similar group by referring to the minutia point related information of the plurality of minutia information items belonging to the specific similar group, and transmit the probability to the administrator terminal.

예를 들어, 특정 유사그룹에 10개의 특징점정보가 속해 있으며, 4개의 특징점정보는 비정상적인 고객에 대한 것이며, 3개의 특징점정보는 절도범에 대한 것이고, 나머지 3개의 특징점정보는 강도에 대한 것이 경우, 해당 사용자가 비정상적인 고객일 확률(40%), 절도범일 확률(30%) 및 강도일 확률(30%) 또는 비정상적인 고객일 확률(40%) 및 범죄자일 확률(60%)로 계산하여 관리자 단말로 제공할 수 있다. 이렇듯 확률값을 통해 사용자의 얼굴의 인식결과를 관리자에게 제공하는 경우, 더욱 신속하게 관리대상자의 출현을 인식할 수 있다. For example, if 10 pieces of characteristic point information belong to a specific similar group, 4 pieces of characteristic point information are for abnormal customers, 3 pieces of characteristic point information are for the thief, and the remaining 3 pieces of characteristic point information are about intensity, The user is calculated as the probability of abnormal customer (40%), the probability of being a thief (30%), the probability of a robbery (30%), the probability of an abnormal customer (40%) and the probability of a criminal can do. Thus, when the recognition result of the user's face is provided to the manager through the probability value, the appearance of the management subject can be recognized more quickly.

또한 데이터베이스 업데이트부(170)는 관리대상자의 특징점정보가 새롭게 추가되는 경우, 상기 추가되는 관리대상자의 특징점정보를 상기 데이터베이스(300)에 추가하여 저장함으로서, 상기 데이터베이스(300)를 업데이트하며, 상기 그룹핑부(140)를 통해 상기 추가되는 특징점정보와 각 유사그룹별 대표특징점정보 간의 유사도 수준에 따라 특정 유사그룹으로 그룹핑될 수 있도록 한다. The database update unit 170 updates the database 300 by adding the minutia information of the additional management target person to the database 300 and storing the added minutia information when the minutia information of the management target is newly added, (140) to be grouped into specific similar groups according to the degree of similarity between the added minutia information and representative minutia information for each similar group.

또한 데이터베이스 업데이트부(170)는 상기 새로운 특징점정보가 추가되어 유사그룹으로 그룹핑된 경우에는, 상기 추가된 특징점정보를 반영하여 해당 유사그룹의 대표특징점정보를 새로운 대표특징점정보로 대체하거나 기존의 대표특징점정보를 보정하여 정확한 얼굴인식이 수행될 수 있도록 한다.In a case where the new minutia information is added and grouped into a similar group, the database update unit 170 replaces the representative minutia information of the similar group with the new minutia information by reflecting the added minutia information, Information is corrected so that accurate face recognition can be performed.

또한 상기 데이터베이스 업데이트부(170)는 일정한 기간 동안(예: 3달, 5달, 7달 등) 유사도 비교대상에 선정되지 않는 특징점정보는 상기 데이터베이스(300)에서 자체적으로 제거하여 사용자의 얼굴을 인식하기 위한 유사도 계산의 대상이 되는 관리대상자의 특징점정보를 줄일 수 있도록 한다. 이를 통해 더욱 빠르고 효율적으로 사용자의 얼굴을 인식할 수 있다.In addition, the database update unit 170 removes minutia information that is not selected for the similarity comparison object for a predetermined period (e.g., 3 months, 5 months, 7 months, etc.) The feature point information of the management subject to be subjected to the similarity calculation to be performed can be reduced. This makes it possible to recognize the user's face more quickly and efficiently.

한편 상기에서 설명한 안내 장치(100)의 각 구성부분은 시스템의 규모에 다라 독립적인 컴퓨팅 장치로 분할되어 구현될 수 있으며 하나의 영상촬영장치(200)로 구현될 수 도 있다. 이때, 복수개의 영상촬영장치(200)를 소수개의 데이터베이스와 이벤트전송시스템(즉, 알람시스템)과 연동하여 동작하도록 구현되며, 상기 데이터베이스(300)는 관리자의 요청에 의해 실시간으로 업데이트된다.Meanwhile, each component of the guide device 100 described above may be divided into independent computing devices depending on the size of the system, and may be implemented as one image capturing device 200. [ At this time, the plurality of image capturing apparatuses 200 are operated in cooperation with a small number of databases and an event transmission system (i.e., an alarm system), and the database 300 is updated in real time at the request of the administrator.

이하에서는 도 5를 참조하여 관리대상자의 특징점정보를 데이터베이스화하는 절차와 사용자 얼굴 인식 및 알림 과정에 대한 절차를 상세히 설명하도록 한다. Hereinafter, with reference to FIG. 5, a procedure of databaseing the minutiae information of the management subject and a procedure of the user face recognition and notification process will be described in detail.

도 5는 본 발명의 일 실시예에 따른 사용자의 얼굴을 인식하기 위한 기준 데이터인 관리대상자의 특징점정보를 데이터베이스화하는 절차와 이를 이용하여 사용자 얼굴 인식하고 인식결과를 관리자단말로 전송하는 알림과정에 대한 절차를 상세히 설명하도록 한다.FIG. 5 is a flowchart illustrating a procedure of databaseing minutiae information of a management subject, which is reference data for recognizing a face of a user according to an embodiment of the present invention, and recognizing a user face using the minutiae information and transmitting a recognition result to the administrator terminal Describe the procedure in detail.

도 5에 도시한 바와 같이 사용자의 얼굴을 인식하기 위한 기준데이터인 관리대상자의 특징점정보를 데이터베이스화하는 절차는 우선, 안내 장치(100)를 통해 수집되는 복수의 관리대상자에 대한 영상으로부터 얼굴영상을 검출한다(S110).As shown in FIG. 5, the procedure of converting the minutia information of the management subject, which is the reference data for recognizing the face of the user, into a database is performed by first acquiring facial images from the images of a plurality of management subjects collected through the guide device 100 (S110).

다음으로 안내 장치(100)는 상기 검출한 얼굴영상으로부터 특징점정보를 추출한다(S120).Next, the guiding device 100 extracts minutia information from the detected face image (S120).

이때 상기 안내 장치(100)는 각 특징점정보에 대한 관리대상자 유형을 나타내는 클래스레이블을 매핑하여 저장함으로써, 각 특징점정보가 어떤 유형의 관리대상자인지를 쉽게 판단할 수 있도록 한다.At this time, the guide device 100 maps and stores a class label indicating a management object type for each minutia information, so that it is possible to easily determine which type of management target each minutia information is.

다음으로 상기 안내 장치(100)는 상기 추출한 복수의 관리대상자에 대한 특징점정보들을 상호 비교하여 유사한 특징을 보이는 특징점정보를 그룹핑하여(S130)데이터베이스(300)에 저장함으로써, 상기 복수의 관리대상자에 대한 특징점정보를 데이터베이스화한다.Next, the guiding device 100 groups the minutiae information of the extracted plurality of the management subjects by comparing them with each other, and stores the minutia information having similar characteristics in the database 300 (S130) The minutiae information is converted into a database.

또한 영상촬영장치(200)로부터 촬영되는 영상으로부터 사용자의 얼굴을 인식하고, 상기 인식한 결과를 관리자단말로 전송하는 과정(즉, 알림과정)은 우선, 안내 장치(100)를 통해 수집되는 영상촬영장치(200)에서 실시간으로 촬영한 영상으로부터, 사용자의 얼굴영상을 검출하고, 상기 검출한 사용자의 얼굴영상으로부터 특징점정보를 추출한다(S210).Also, the process of recognizing the user's face from the image photographed by the image photographing apparatus 200 and transmitting the recognized result to the administrator terminal (i.e., the notification process) The face image of the user is detected from the image captured by the device 200 in real time, and the feature point information is extracted from the detected face image of the user (S210).

상기 사용자의 얼굴영상에 대한 특징점정보는 상기 S120단계에서 수행되는 동일한 방법을 통해 추출된다.The feature point information of the face image of the user is extracted through the same method performed in step S120.

다음으로 안내 장치(100)는 데이터베이스(300)에 저장된 유사그룹별 대표특징점정보를 로딩하여(S220), 상기 추출한 사용자의 특징점정보와 유사도를 계산한다(S230).Next, the guiding device 100 loads representative minutia information for each similar group stored in the database 300 (S220), and calculates the similarity with the extracted minutia information of the user (S230).

S230단계에서 수행되는 유사그룹별 대표특징점정보와 사용자의 특징점정보 간의 유사도 계산은 사용자의 얼굴을 인식하기 위해 비교대상이 되는 특징점정보의 수를 줄이기 위해 수행된다.The similarity calculation between the representative minutia information by similar group and the minutia information of the user performed in step S230 is performed in order to reduce the number of minutia information to be compared in order to recognize the user's face.

다음으로 안내 장치(100)는 상기 유사도를 계산한 결과 유사도가 높은 대표특징점정보에 대한 유사그룹을 적어도 하나 이상 선택하고(S240), 상기 선택한 유사그룹 내의 특징점정보와 상기 사용자의 특징점정보 간의 1:1 유사도 계산을 수행(S250)하여 통해 미리 설정한 값 이상의 유사도를 가지는 적어도 하나 이상의 특징점정보를 추출한다.Next, the guide apparatus 100 selects at least one similar group for representative feature point information having a high similarity degree as a result of calculation of the similarity degree (S240). Then, the guide apparatus 100 selects 1: 1 similarity calculation is performed (S250), and at least one minutia information having a degree of similarity higher than a preset value is extracted.

즉, 상기 안내 장치(100)는 복수의 영상촬영장치(200)로부터 촬영되는 사용자의 얼굴을 인식하기 위해 데이터베이스(300)에 저장되어 있는 모든 특징점정보와 유사도 계산을 수행하지 않고, 상기 선택된 특정 유사그룹 내의 특징점정보만을 가지고 유사도를 계산하여 사용자의 얼굴을 인식하는 데 소요되는 시간을 획기적으로 줄일 수 있다.That is, the guide device 100 does not perform similarity calculation with all the feature point information stored in the database 300 to recognize the face of the user photographed from the plurality of image capturing apparatuses 200, It is possible to dramatically reduce the time required for recognizing the face of the user by calculating the degree of similarity only with the feature point information within the group.

다음으로 안내 장치(100)는 상기 S250 단계에서 유사도 계산을 수행한 결과, 특정 이벤트가 발생한 경우에는 이에 관련한 정보를 데이터베이스(300)로부터 추출하여 관리자단말로 전송한다(S260).Next, the guide device 100 extracts information related to a specific event from the database 300 and transmits the extracted information to the administrator terminal in operation S260.

상기 이벤트는 해당 사용자의 얼굴을 인식한 결과 관리대상자의 특징점정보와 매우 유사한 경우를 의미하는 것으로, 상기 안내 장치(100)는 상기 이벤트가 발생한 경우에는 해당 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자유형, 상기 사용자의 특징점정보 또는 이들의 조합을 데이터베이스(300)로부터 추출하여 상기 관리자단말로 전송함으로써, 범죄예방이나 업무방해 방지 또는 우수고객에 대한 즉각적인 조치를 취할 수 있도록 한다.When the event occurs, the guide device 100 displays a face image of the user, a face image of the user to which the recognized user belongs The management subject type, the minutiae information of the user, or a combination thereof, from the database 300 and transmits the extracted information to the administrator terminal so as to prevent crime, prevent business interruption, or take immediate action for good customers.

이상에서 살펴본 바와 같이, 본 발명의 얼굴인식을 통한 학습형 실시간 안내 시스템 및 그 안내 방법은, 복수의 관리대상자의 얼굴영상으로부터 추출되는 특징점정보를 토대로 유사한 특징을 가지는 특징점정보별로 유사그룹을 생성하고, 특정 사용자에 대한 얼굴을 인식하는 과정에서 특정 유사그룹을 선별하여, 상기 선별된 유사그룹 내의 특징점정보만을 토대로 해당 사용자의 얼굴을 신속하게 인식하여, 인식결과를 관리자에게 제공함으로써, 관리대상자의 출현을 신속하게 알려 이에 대한 조치를 즉각적으로 수행할 수 있도록 하는 효과가 있다.As described above, in the learning-type real-time guidance system and method for guiding learning through face recognition of the present invention, a similar group is generated for each feature point information having similar characteristics based on feature point information extracted from face images of a plurality of subjects to be managed , A specific similar group is selected in a process of recognizing a face for a specific user, the face of the user is quickly recognized based only on the minutia information in the selected similar group, and the recognition result is provided to the manager, So that the user can immediately perform the action.

여기에서, 상술한 본 발명에서는 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.While the present invention has been described with reference to the preferred embodiments thereof, those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. As will be understood by those skilled in the art.

10 : 얼굴인식을 통한 학습형 실시간 안내 시스템
100 : 안내 장치 110 : 영상수집부
120 : 얼굴영상 검출부 130 : 특징점정보 추출부
140 : 그룹핑부 150 : 사용자 얼굴 인식부
160 : 알림부 170 : DB 업데이트부
200 : 영상촬영장치 300 : 데이터베이스
400 : 범죄자 데이터베이스
10: Learning-based real-time guidance system through face recognition
100: guide device 110: image collecting part
120: Facial image detecting unit 130: Feature point information extracting unit
140: Grouping unit 150: User's face recognition unit
160: notification unit 170: DB update unit
200: image capturing apparatus 300: database
400: Criminal database

Claims (12)

복수의 관리대상자 및 사용자의 얼굴영상으로부터 특징점정보를 추출하는 특징점정보 추출부;
상기 추출한 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 그룹핑부; 및
상기 추출한 사용자의 특징점정보와 상기 관리대상자의 특징점정보 사이의 유사도를 계산하여 사용자의 얼굴을 실시간으로 인식하는 사용자 얼굴 인식부;를 포함하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
A minutia information extracting unit for extracting minutia information from face images of a plurality of management subjects and users;
A grouping unit for grouping minutia information of the extracted management subjects into a plurality of similar groups; And
And a user face recognizing unit for recognizing a face of the user in real time by calculating a similarity degree between the minutiae information of the extracted user and the minutiae information of the management subject.
청구항 1에 있어서,
상기 그룹핑부는,
상기 추출한 복수의 관리대상자에 대한 특징점정보들 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 그룹화하거나,
상기 관리대상자의 특징점정보를 학습하여 눈, 코, 입, 턱 또는 이들의 조합을 포함하는 얼굴요소들의 선형적 또는 비선형적 분포에 대한 패턴을 검출하고, 상기 패턴에 대한 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 클러스터링함으로써 특징점정보들을 그룹화하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
The method according to claim 1,
The grouping unit,
Calculating similarities between minutiae information about the extracted plurality of management subjects, grouping minutiae information according to the calculated similarities,
Detecting a pattern of a linear or non-linear distribution of facial elements including eye, nose, mouth, jaw or a combination thereof by learning minutia information of the person to be supervised, calculating a degree of similarity to the pattern, Wherein the feature point information is grouped by clustering feature point information according to a degree of similarity.
청구항 1에 있어서,
상기 그룹핑부는,
유사그룹별 대표특징점정보를 생성하고, 생성한 대표특징점정보를 상기 유사그룹별로 매핑하여 데이터베이스에 저장하는 것을 더 포함하며,
상기 대표특징점정보는, 상기 유사그룹별 특징점정보들에 대한 평균값 또는 중간값 계산을 통해 생성되며, 상기 유사그룹별 특징점정보들이 새롭게 추가되거나 삭제되는 경우 이를 반영한 새로운 대표특징점정보로 대체되거나 보정되는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
The method according to claim 1,
The grouping unit,
Generating typical representative point information for each similar group, mapping the generated representative point information to each similar group, and storing the representative point information in a database,
The representative minutia information is generated by calculating an average value or an intermediate value of the minutia information for each similar group, and when the minutia information for each similar group is newly added or deleted, the representative minutia information is replaced or corrected by new representative minutia information Learning - based real - time guidance system based on face recognition.
청구항 3에 있어서,
상기 사용자 얼굴 인식부는,
상기 추출한 사용자의 특징점정보와 상기 유사그룹별 대표특징점정보 간의 유사도를 계산하고, 계산한 유사도에 따라 적어도 하나 이상의 대표특징점정보에 대한 유사그룹을 선별하며,
상기 선별한 유사그룹에 해당하는 관리대상자의 특징점정보와 상기 사용자의 특징점정보 사이의 유사도를 계산하여, 상기 계산한 유사도에 따라 관리대상자의 특징점정보를 선택함으로서, 사용자의 얼굴을 인식하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
The method of claim 3,
The user's face recognizing unit,
Calculating similarities between the minutiae information of the extracted user and the representative minutia information by the similar group, sorting similar groups of at least one representative minutia information according to the calculated similarity,
Calculating a similarity degree between the minutiae point information of the management subject corresponding to the selected similar group and the minutiae point information of the user and selecting the minutiae point information of the management subject according to the calculated similarity, Learning - based real - time guidance system using face recognition.
청구항 1에 있어서,
상기 얼굴인식을 통한 학습형 실시간 안내 시스템은,
상기 인식한 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자 유형, 상기 인식한 사용자의 특징점정보 또는 이들의 조합을 관리자단말로 전송하는 알림부;를 더 포함하며,
상기 관리대상자 유형은 범죄자의 유형, 비정상적인 고객의 유형 또는 우수고객의 유형을 포함하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
The method according to claim 1,
The learning-type real-
And a notification unit for transmitting a face image of the recognized user, a type of a management object to which the recognized user belongs, minutia information of the recognized user, or a combination thereof to the administrator terminal,
Wherein the management target type includes a type of a criminal, a type of an abnormal customer, or a type of an excellent customer.
청구항 1에 있어서,
상기 얼굴인식을 통한 학습형 실시간 안내 시스템은,
상기 관리대상자의 특징점정보가 미리 설정한 기간 이상 사용자의 얼굴을 인식하기 위한 상기 유사도의 계산에 이용되지 않는 경우, 데이터베이스에서 자동적으로 삭제하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 시스템.
The method according to claim 1,
The learning-type real-
Wherein the feature point information of the management subject is automatically deleted from the database when the feature point information of the management subject is not used for calculation of the degree of similarity for recognizing the face of the user for a predetermined period or more.
복수의 관리대상자 및 사용자의 얼굴영상으로부터 특징점정보를 추출하는 특징점정보 추출 단계;
상기 추출한 관리대상자의 특징점정보를 복수의 유사그룹으로 그룹핑하는 그룹핑 단계; 및
상기 추출한 사용자의 특징점정보와 상기 관리대상자의 특징점정보 사이의 유사도를 계산하여 사용자의 얼굴을 실시간으로 인식하는 사용자 얼굴 인식 단계;를 포함하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
A minutia point information extracting step of extracting minutia information from face images of a plurality of management subjects and users;
A grouping step of grouping minutia information of the extracted management subjects into a plurality of similar groups; And
And a user face recognizing step of recognizing a user's face in real time by calculating a similarity degree between the minutia information of the extracted user and the minutia information of the management subject.
청구항 7에 있어서,
상기 그룹핑 단계는,
상기 추출한 복수의 관리대상자에 대한 특징점정보들 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 그룹화하거나,
상기 관리대상자의 특징점정보를 학습하여 눈, 코, 입, 턱 또는 이들의 조합을 포함하는 얼굴요소들의 선형적 또는 비선형적 분포에 대한 패턴을 검출하고, 상기 패턴에 대한 유사도를 계산하고, 상기 계산한 유사도에 따라 특징점정보들을 클러스터링함으로써 특징점정보들을 그룹화하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
The method of claim 7,
Wherein the grouping comprises:
Calculating similarities between minutiae information about the extracted plurality of management subjects, grouping minutiae information according to the calculated similarities,
Detecting a pattern of a linear or non-linear distribution of facial elements including eye, nose, mouth, jaw or a combination thereof by learning minutia information of the person to be supervised, calculating a degree of similarity to the pattern, Wherein the minutiae information is grouped by clustering the minutiae information according to a degree of similarity.
청구항 7에 있어서,
상기 그룹핑 단계는,
유사그룹별 대표특징점정보를 생성하고 상기 생성한 대표특징점정보를 상기 유사그룹별로 매핑하여 데이터베이스에 저장하는 것을 더 포함하며,
상기 대표특징점정보는, 상기 유사그룹별 특징점정보들에 대한 평균값 또는 중간값 계산을 통해 생성되며, 상기 유사그룹별 특징점정보들이 새롭게 추가되거나 삭제되는 경우 이를 반영한 새로운 대표특징점정보로 대체되거나 보정되는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
The method of claim 7,
Wherein the grouping comprises:
Generating representative feature point information for each similar group, mapping the generated representative feature point information for each similar group, and storing the representative feature point information in a database,
The representative minutia information is generated by calculating an average value or an intermediate value of the minutia information for each similar group, and when the minutia information for each similar group is newly added or deleted, the representative minutia information is replaced or corrected by new representative minutia information Learning - based real - time guidance method using face recognition.
청구항 9에 있어서,
상기 사용자 얼굴 인식 단계는,
상기 추출한 사용자의 특징점정보와 상기 유사그룹별 대표특징점정보 간의 유사도를 계산하고, 상기 계산한 유사도에 따라 적어도 하나 이상의 대표특징점정보에 대한 유사그룹을 선별하며,
상기 선별한 유사그룹에 해당하는 관리대상자의 특징점정보와 상기 사용자의 특징점정보 사이의 유사도를 계산하여, 상기 계산한 유사도에 따라 관리대상자의 특징점정보를 선택함으로서, 사용자의 얼굴을 인식하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
The method of claim 9,
The user face recognition step may include:
Calculating similarity between the minutiae information of the extracted user and the representative minutiae information of the similar group, selecting a similar group for at least one representative minutia information according to the calculated similarity,
Calculating a similarity degree between the minutiae point information of the management subject corresponding to the selected similar group and the minutiae point information of the user and selecting the minutiae point information of the management subject according to the calculated similarity, Learning - based real - time guidance method using face recognition.
청구항 7에 있어서,
상기 얼굴인식을 통한 학습형 실시간 안내 방법은,
상기 인식한 사용자의 얼굴영상, 상기 인식한 사용자가 속하는 관리대상자 유형, 상기 인식한 사용자의 특징점정보 또는 이들의 조합을 관리자단말로 전송하는 알림 단계;를 더 포함하며,
상기 관리대상자 유형은 범죄자의 유형, 비정상적인 고객의 유형 또는 우수고객의 유형을 포함하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
The method of claim 7,
A learning-type real-time guidance method using face recognition,
And a notification step of transmitting the facial image of the recognized user, the management object type to which the recognized user belongs, the minutia information of the recognized user, or a combination thereof to the administrator terminal,
Wherein the management object type includes a type of a criminal, a type of an abnormal customer, or a type of a superior customer.
청구항 7에 있어서,
상기 얼굴인식을 통한 학습형 실시간 방법은,
상기 관리대상자의 특징점정보가 미리 설정한 기간 이상 사용자의 얼굴을 인식하기 위한 상기 유사도의 계산에 이용되지 않는 경우, 데이터베이스에서 자동적으로 삭제하는 것을 특징으로 하는 얼굴인식을 통한 학습형 실시간 안내 방법.
The method of claim 7,
A learning-type real-time method using face recognition,
And if the minutia information of the management subject is not used for calculation of the similarity for recognizing the face of the user for a predetermined period or longer, the learning information is automatically deleted from the database.
KR1020170009112A 2017-01-19 2017-01-19 System for learning based real time guidance through face recognition and the method thereof KR101957677B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170009112A KR101957677B1 (en) 2017-01-19 2017-01-19 System for learning based real time guidance through face recognition and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170009112A KR101957677B1 (en) 2017-01-19 2017-01-19 System for learning based real time guidance through face recognition and the method thereof

Publications (2)

Publication Number Publication Date
KR20180085505A true KR20180085505A (en) 2018-07-27
KR101957677B1 KR101957677B1 (en) 2019-03-13

Family

ID=63078296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170009112A KR101957677B1 (en) 2017-01-19 2017-01-19 System for learning based real time guidance through face recognition and the method thereof

Country Status (1)

Country Link
KR (1) KR101957677B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200063705A (en) * 2018-11-28 2020-06-05 초록소프트 주식회사 Method and apparatus for implementing flow populent data collecting algorithm using real time load
CN111814702A (en) * 2020-07-13 2020-10-23 安徽兰臣信息科技有限公司 Child face recognition method based on adult face and child photo feature space mapping relation
KR102240495B1 (en) * 2020-06-11 2021-04-15 주식회사 카카오뱅크 Method for managing abusing user about identification and authentication, and server for the method
KR102297575B1 (en) * 2021-02-19 2021-09-07 유비트론(주) Intelligent video surveillance system and method
WO2022113301A1 (en) * 2020-11-27 2022-06-02 シミックホールディングス株式会社 Control device, computer program, non-transitory computer readable medium, data storage system, and storage device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050022676A (en) * 2003-08-29 2005-03-08 (주)워치비젼 Apparatus and method for providing physiognomy information using face recognition technology
KR20060070972A (en) * 2004-12-21 2006-06-26 주식회사 팬택 Method and mobile communication terminal of managing contents

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050022676A (en) * 2003-08-29 2005-03-08 (주)워치비젼 Apparatus and method for providing physiognomy information using face recognition technology
KR20060070972A (en) * 2004-12-21 2006-06-26 주식회사 팬택 Method and mobile communication terminal of managing contents

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200063705A (en) * 2018-11-28 2020-06-05 초록소프트 주식회사 Method and apparatus for implementing flow populent data collecting algorithm using real time load
KR102240495B1 (en) * 2020-06-11 2021-04-15 주식회사 카카오뱅크 Method for managing abusing user about identification and authentication, and server for the method
CN111814702A (en) * 2020-07-13 2020-10-23 安徽兰臣信息科技有限公司 Child face recognition method based on adult face and child photo feature space mapping relation
WO2022113301A1 (en) * 2020-11-27 2022-06-02 シミックホールディングス株式会社 Control device, computer program, non-transitory computer readable medium, data storage system, and storage device
KR102297575B1 (en) * 2021-02-19 2021-09-07 유비트론(주) Intelligent video surveillance system and method

Also Published As

Publication number Publication date
KR101957677B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
KR101957677B1 (en) System for learning based real time guidance through face recognition and the method thereof
US11669979B2 (en) Method of searching data to identify images of an object captured by a camera system
US9646228B2 (en) Role-based tracking and surveillance
TWI336054B (en) Person identification device and person identification method
US9064145B2 (en) Identity recognition based on multiple feature fusion for an eye image
US9477876B2 (en) Person recognition apparatus and method thereof
US20060093185A1 (en) Moving object recognition apparatus
US20100329568A1 (en) Networked Face Recognition System
WO2018180588A1 (en) Facial image matching system and facial image search system
JP2015097000A (en) Image recognition device and data registration method to the same
CN108875341A (en) A kind of face unlocking method, device, system and computer storage medium
JP2007317062A (en) Person recognition apparatus and method
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
CN112183162A (en) Face automatic registration and recognition system and method in monitoring scene
KR101515214B1 (en) Identification method using face recognition and entrance control system and method thereof using the identification method
JP4862518B2 (en) Face registration device, face authentication device, and face registration method
Balasubramanian et al. Conformal predictions for information fusion: A comparative study of p-value combination methods
Manikandan et al. A neural network aided attuned scheme for gun detection in video surveillance images
EP4057237A1 (en) Reference image enrollment and evolution for security systems
JP2021012657A (en) Information processing apparatus, information processing method, and camera
Alim et al. Method for secure electronic voting system: face recognition based approach
Liashenko et al. Investigation of the influence of image quality on the work of biometric authentication methods
Reddy et al. Real time security surveillance using machine learning
Singh et al. Facial Recognition for Crime Control: A Machine Learning-based Solution

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant