KR102261336B1 - Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies - Google Patents

Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies Download PDF

Info

Publication number
KR102261336B1
KR102261336B1 KR1020200093848A KR20200093848A KR102261336B1 KR 102261336 B1 KR102261336 B1 KR 102261336B1 KR 1020200093848 A KR1020200093848 A KR 1020200093848A KR 20200093848 A KR20200093848 A KR 20200093848A KR 102261336 B1 KR102261336 B1 KR 102261336B1
Authority
KR
South Korea
Prior art keywords
advertisement
face
unit
point
artificial intelligence
Prior art date
Application number
KR1020200093848A
Other languages
Korean (ko)
Inventor
전주천
Original Assignee
주식회사 센스비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 센스비전 filed Critical 주식회사 센스비전
Priority to KR1020200093848A priority Critical patent/KR102261336B1/en
Application granted granted Critical
Publication of KR102261336B1 publication Critical patent/KR102261336B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements
    • G06Q30/0269Targeted advertisements based on user profile or attribute
    • G06K9/00234
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0273Determination of fees for advertising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06K2009/00322
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to an advertisement content sharing service system capable of performing artificial intelligence advertisement matching by face recognition and distributing advertisement revenue. The advertisement content sharing service system capable of performing artificial intelligence-based face recognition advertisement matching and distributing advertisement revenue comprises: a camera (2) disposed in an affiliated store and configured to obtain an image by photographing a customer's face; a face recognition unit (4) which recognizes the face by analyzing the face image obtained by the camera (2) based on artificial intelligence, wherein the face recognition unit recognizes and analyzes only the gender, age, emotional state, and GPS-based region without specifying the customer's identity in detail and without creating a database; an advertisement management unit (3) which retrieves a suitable advertisement by matching advertisement content with the recognized customer's face based on artificial intelligence; a display unit (7) which displays the advertisement transmitted from the advertisement management unit (3); a unit price calculation unit (9) which calculates an advertisement unit price by analyzing customer information for each affiliate store; a revenue settlement unit (11) which calculates and settles an increase and a decrease in sales according to the advertisement content; and a big data DB unit (13) in which the advertisement content collected from advertisers and customer data of each affiliate are stored. Accordingly, the present invention may search a specific face by detecting a partial area of a face.

Description

인공지능 얼굴인식에 의한 광고 컨텐츠 매칭 및 이를 통한 광고 수익을 분배할 수 있는 광고 컨텐츠 공유 서비스 제공 시스템{Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies}BACKGROUND ART Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies}

본 발명은 인공지능 기술 기반에 의한 얼굴인식 광고 매칭 서비스를 제공할 수 있는 시스템에 관한 것으로서, 보다 상세하게는 광고주로부터 제공받은 광고 컨텐츠를 레이블링에 의하여 빅데이터 DB부를 구축하고, 각 가맹점에 설치된 카메라에 의하여 얻어진 고객들의 얼굴을 분석하되, 고객의 신상을 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 다만 고객의 성별, 나이, 감정, GPS 기반의 지역만을 파악하고 AI에 의하여 해당 가맹점을 방문한 고객에 최적화한 광고 컨텐츠를 매칭함으로써 광고효과를 높이고, 또한 인공지능 얼굴인식에 의하여 고객의 수에 대하여 노출된 광고의 종류, 특성 등의 분석에 따른 지능형 광고 수익 정산 알고리즘에 의하여 광고 수익 정산도 쉽게 할 수 있으며, 동시에 지능형 영상보안 방범 기능을 수행할 수 있는 서비스 및 기술에 관한 것이다.The present invention relates to a system capable of providing a face recognition advertisement matching service based on artificial intelligence technology. More specifically, a big data DB unit is built by labeling advertisement contents provided from an advertiser, and a camera installed in each affiliate store. A customer who analyzes the customer's face obtained by means of AI, but does not specifically specify the customer's identity and does not create a DB, but only identifies the customer's gender, age, emotion, and GPS-based region and uses AI to visit the affiliated store By matching the optimized advertisement content, the advertisement effect is enhanced, and the advertisement revenue settlement is made easy by the intelligent advertisement revenue settlement algorithm according to the analysis of the types and characteristics of advertisements exposed to the number of customers by artificial intelligence face recognition. It relates to services and technologies capable of performing intelligent video security crime prevention functions at the same time.

근래에는 광고의 중요성이 증대되고 있는 추세이다. TV와 같은 방송매체, 신문, 전단지 등을 통하여 다량의 광고가 행해지고 있다.In recent years, the importance of advertising is increasing. A large amount of advertisements are being conducted through broadcast media such as TV, newspapers, flyers, and the like.

특히, 대형 할인 마트가 많이 들어서고 있고 마트간 또는 코너간에 매출 경쟁 또한 치열해지고 있다. 그에 따라 다양한 전시 및 홍보 방법이 동원되고 있다. In particular, many large discount marts are opening up, and sales competition between marts and corners is also getting fiercer. Accordingly, various exhibition and promotion methods are being mobilized.

또한 기존에는 할인 행사 상품이나 신상품을 알리기 위해서, 일일이 전단지를 제작하는 방식이 주를 이루었다. Also, in the past, the main method was to produce leaflets one by one in order to announce discount event products or new products.

이렇게 광고 전단지를 제작하는 것은 그 특성상 주로 고급용지와 컬러 인쇄를 하기 때문에 상당한 비용부담이 있으며 그 효과를 측정하기 어려움이 있으며 쓰레기 배출 및 환경파괴 등 다양한 문제를 야기하기도 한다. In this way, the production of advertisement flyers has a significant cost burden because it mainly uses high-quality paper and color printing, and it is difficult to measure the effect, and it also causes various problems such as waste discharge and environmental destruction.

또는 이 메일이나 문자메시지와 같은 스팸성 정보 데이터를 일괄적으로 발송하는 방식도 많이 이용되고 있으나, 최근에는 너무 많은 스팸성 정보로 인해 다수의 고객들이 읽기 전에 삭제하거나 스팸처리를 하는 문제점이 있다.Alternatively, a method of sending spam information data such as e-mail or text message in bulk is also widely used, but recently there is a problem in that many customers delete or spam the information before reading it due to too much spam information.

더구나 상술한 종래의 홍보 방법들은 정보가 필요한 고객의 입장에서 자발적으로 접근하는 방식이 아닌 일방적인 정보 전달이기 때문에 소요되는 비용에 대비 효율이 매우 낮다고 할 수 있다. Moreover, it can be said that the above-mentioned conventional public relations methods are very low in efficiency compared to the cost required because they are one-sided information delivery rather than a voluntary approach from the point of view of a customer who needs information.

따라서, 종래의 광고 방식은 다음과 같은 문제점이 있다.Therefore, the conventional advertising method has the following problems.

첫째, 다수의 일반 소비자를 대상으로 무작위로 광고 컨텐츠를 노출하게 되고, 소비자의 성별, 나이, 감정 등을 고려함이 없이 일방적인 광고컨텐츠를 제공하게 되므로 광고 효율이 낮아진다.First, advertising content is randomly exposed to a large number of general consumers, and unilateral advertising content is provided without considering the consumer's gender, age, emotion, etc., so advertising efficiency is lowered.

둘째, 제공한 광고 컨텐츠와 매출 발생간의 상관 관계에 대한 객관적인 자료가 부족하므로 광고료를 산정하기 어려운 문제점이 있다.Second, there is a problem in that it is difficult to calculate the advertising fee because there is a lack of objective data on the correlation between the provided advertising content and the generation of sales.

셋째, 지역 사정이나 고객의 상황을 고려하지 않고 일방적으로 광고 컨텐츠를 제공하게 되므로 광고 효과에 대한 비교 또는 효과에 대한 시각화된 데이터가 없는 비효율적 구조이다.Third, since advertisement contents are unilaterally provided without considering local circumstances or customer circumstances, it is an inefficient structure without comparison of advertisement effects or visualized data on effectiveness.

특허 공개번호 10-2009-0083643호(사설 방송을 이용하여 홍보 서비스를 제공하는 방법, 시스템 및 장치)Patent Publication No. 10-2009-0083643 (Method, system and apparatus for providing publicity service using private broadcasting)

따라서, 본 발명은 이와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 광고주로부터 제공받은 광고 컨텐츠를 다양한 카테고리에 레이블링을 하여 빅데이터 DB부를 구축하고, 각 가맹점에 설치된 카메라에 의하여 얻어진 실시간 영상에서 고객들의 얼굴을 추출하되 고객의 신상을 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 다만 성별, 나이, 감정, GPS 기반의 지역별 특성만을 인식 분석하고 AI에 의하여 해당 가맹점에 방문한 고객에게 적합한 광고 컨텐츠를 매칭함으로써 광고효과를 높이고, 또한 인공지능 광고 수익 정산 알고리즘에 의하여 광고 수익 정산도 쉽게 할 수 있으며, 동시에 인공지능 영상분석 기반의 보안 및 방범 기능을 수행할 수 있는 서비스 및 기술을 제공하는 것이다.Accordingly, the present invention has been devised to solve such a problem, and an object of the present invention is to label advertisement content provided by an advertiser in various categories to build a big data DB unit, and to obtain data obtained by a camera installed in each affiliate store. We extract customers' faces from real-time images, but do not specify the customer's identity in detail and do not create a database, but recognize and analyze only gender, age, emotion, and regional characteristics based on GPS, and use AI to provide information to customers who visit the affiliated store. By matching suitable advertising content, advertising effectiveness is enhanced, and advertising revenue can be easily settled by the artificial intelligence advertising revenue settlement algorithm, while at the same time providing services and technologies that can perform security and crime prevention functions based on artificial intelligence video analysis. will do

본 발명의 다른 목적은 얼굴을 인식할 수 있는 시스템을 스마트폰 App, 개인용 컴퓨터의 웹 서비스, 얼굴인식 Edge 단말기 및 광고 디스플레이 기기에 인공지능 카메라 혹은 인공지능 셋탑박스를 탑재함으로서 각 개인별로 특화된 광고 컨텐츠 혹은 각 개인별 성향 분석에 의한 추천 광고 컨텐츠를 제공할 수 있는 서비스 및 기술을 제공하는 것이다.Another object of the present invention is to provide a system capable of recognizing a face by mounting an artificial intelligence camera or artificial intelligence set-top box in a smartphone app, a personal computer web service, a face recognition edge terminal, and an advertisement display device. Alternatively, it is to provide a service and technology capable of providing recommended advertisement content based on individual tendency analysis.

본 발명의 다른 목적은 얼굴 인식을 신속하게 진행할 필요가 있는 경우, 일반모드를 신속모드로 전환함으로써 얼굴의 일부 영역만을 검출하여 특정 얼굴을 검색할 수 있는 인공지능 기반의 얼굴인식 광고매칭 및 광고 컨텐츠 공유서비스 시스템을 제공하는 것이다.Another object of the present invention is when it is necessary to quickly perform face recognition, AI-based face recognition advertisement matching and advertisement content that can search for a specific face by detecting only a partial area of the face by switching the normal mode to the quick mode To provide a shared service system.

상기한 목적을 달성하기 위하여, 본 발명의 일 실시예는, In order to achieve the above object, an embodiment of the present invention,

가맹점에 배치되어 고객의 얼굴을 촬영하여 이미지를 얻는 카메라(2)와; a camera (2) disposed in the affiliated store to obtain an image by photographing a customer's face;

카메라(2)로부터 얻어진 얼굴 이미지를 인공지능 기반으로 분석하여 얼굴을 인식하되, 고객의 신상을 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 성별, 나이, 감정상태, GPS 기반의 지역만을 인식하여 분석하는 얼굴 인식부(4)와; The face image obtained from the camera (2) is analyzed based on artificial intelligence to recognize the face, but without specifying the customer’s identity or creating a database, only the gender, age, emotional state, and GPS-based region are recognized. a face recognition unit 4 to analyze;

광고 컨텐츠와 인식된 고객의 얼굴을 인공지능 기반으로 매칭하여 적합한 광고를 인출하는 광고 관리부(3)와; an advertisement management unit (3) for retrieving suitable advertisements by matching advertisement contents with the recognized customer's face based on artificial intelligence;

광고 관리부(3)에서 전송된 광고를 표시하는 표시부(7)와; a display unit 7 for displaying advertisements transmitted from the advertisement management unit 3;

가맹점별로 고객 정보 빅데이터 분석에 의하여 광고 단가를 연산하는 단가 연산부(9)와; a unit price calculation unit 9 for calculating an advertisement unit price by analyzing customer information big data for each affiliate store;

광고 컨텐츠에 노출의 횟수와 광고 노출 시간에 따른 광고 수익의 증감 및 광고 노출에 따른 매출액 증감을 연산하여 수익을 정산하는 수익 정산부(11)와; 그리고a revenue settlement unit 11 for calculating revenue by calculating an increase/decrease in advertisement revenue according to the number of exposures to advertisement content and an advertisement exposure time and an increase/decrease in sales according to advertisement exposure; And

광고주로부터 광고 컨텐츠 및 각 가맹점의 고객에 대한 데이터가 저장되는 빅데이터 DB부(13)를 포함하는 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템(1)을 제공한다.An advertisement content sharing service system (1) capable of distributing advertisement revenue and artificial intelligence-based face recognition advertisement matching including a big data DB unit (13) in which advertisement contents from advertisers and data about customers of each affiliate are stored to provide.

상기한 바와 같이 본 발명의 일 실시예에 따른 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템은 다음과 같은 장점이 있다.As described above, the advertisement content sharing service system capable of distributing advertisement revenue and face recognition advertisement matching based on artificial intelligence according to an embodiment of the present invention has the following advantages.

첫째, 광고주로부터 제공받은 광고 컨텐츠에 의하여 빅데이터 DB부를 구축하고, 각 가맹점에 설치된 카메라에 의하여 얻어진 고객들의 얼굴을 인식하되, 고객의 신상을 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 다만, 성별, 나이, 감정상태, GPS 기반의 지역으로 구분하고 AI에 의하여 해당 가맹점에 적합한 광고 컨텐츠를 매칭함으로써 광고효과를 높이고, 또한 광고 수익의 정산도 쉽게 할 수 있으며, 동시에 인공지능 영상분석에 의한 보안 및 방범 기능을 수행할 수 있다.First, a big data DB unit is built based on the advertisement content provided by the advertiser, and the customer's face obtained by the camera installed at each affiliate is recognized, but the customer's identity is not specifically specified and the DB is not created. By classifying into regions based on gender, age, emotional state, and GPS, and matching advertisement contents suitable for the affiliated store by AI, the advertisement effect can be enhanced, and advertisement revenue can be easily settled, while at the same time, security by artificial intelligence video analysis and a crime prevention function.

둘째, 건물과 같은 밀폐된 공간이나 야외와 같은 개방된 공간에서 특정 위치로 들어오거나 지나가는 사람의 얼굴을 인식하여, 인공지능 기술을 바탕으로 그 사람의 성별, 나이, 그리고 희로애락과 같은 감정의 상태를 분석하고, 그 상황에 맞는 맞춤형 광고를 광고판에 영상으로 표시할 수 있는 장점이 있다.Second, by recognizing the face of a person who enters or passes a specific location in a closed space such as a building or an open space such as outdoors, based on artificial intelligence technology, the person's gender, age, and emotional state such as joys and sorrows are detected. It has the advantage of being able to analyze and display customized advertisements according to the situation as images on the billboard.

셋째, 광고 컨텐츠 제공 시 성별 연령별로 특정 제품이나 주변 상권에서의 선호도에 따른 추천형 광고를 포함할 수 있는 장점이 있다. Third, when providing advertising content, there is an advantage in that it can include recommended advertisements according to preferences in specific products or surrounding commercial areas by gender and age.

넷째, 공익성을 고려한 광고의 제공도 특정 지역의 유동인구 파악에 의한 맞춤형 공공 알림 광고 제공의 장점이 있다. Fourth, the provision of advertisements considering the public interest also has the advantage of providing customized public notification advertisements by identifying the floating population of a specific area.

도 1은 본 발명의 일 실시예에 따른 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템의 구조를 개략적으로 보여주는 도면이다.
도 2는 도 1에 도시된 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템의 구조를 개략적으로 보여주는 블록도이다.
도 3은 도 1에 도시된 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템의 플랫폼 아키텍쳐 구조를 보여주는 도면이다.
도 4는 도 1에 도시된 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템의 적용예를 보여주는 도면이다.
도 5는 도 1에 도시된 얼굴 인식부의 구조를 개략적으로 보여주는 블록도이다.
도 6은 도 5에 도시된 추출부의 구조를 개략적으로 보여주는 블록도이다.
도 7은 도 1에 도시된 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고 컨텐츠 공유서비스 시스템에 의하여 안면을 인식하기 위하여 얼굴 데이터를 1차적으로 영역 분할하는 상태를 보여주는 도면이다.
도 8은 도 7에 도시된 영역 분할된 얼굴 데이터를 2차적으로 연산하여 픽셀별 밝기에 의하여 분석하는 상태를 보여주는 도면이다.
도 9(a)는 얼굴 데이터에서 윤곽에 기준점들을 다수 분포시킴으로써 위치, 크기, 비율을 인식하는 상태를 보여주는 도면이고, 도 9(b)는 얼굴 안쪽에 기준점들을 다수 분포시키는 상태를 보여주는 도면이다.
도 10은 도 1에 도시된 얼굴 인식부의 CPU 구조를 보여주는 도면이다.
도 11은 도 1에 도시된 광고 관리부의 구조를 개략적으로 보여주는 블록도이다.
도 12는 본 발명의 다른 실시예에 따른 얼굴인식 기반 광고 제공 방법을 보여주는 순서도이다.
도 13은 도 12의 얼굴인식 기반 광고 제공방법의 순서를 보여주는 플로우챠트이다.
도 14는 도 12에 도시된 얼굴 인식 기반 광고 제공방법중 신속모드에 의하여 얼굴을 인식하는 과정을 보여주는 순서도이다.
1 is a diagram schematically showing the structure of an advertisement content sharing service system capable of distributing advertisement revenue and matching face recognition advertisements based on artificial intelligence according to an embodiment of the present invention.
FIG. 2 is a block diagram schematically showing the structure of an advertisement content sharing service system capable of distributing advertisement matching and advertisement revenue shown in FIG. 1 .
FIG. 3 is a diagram showing a platform architecture structure of an advertisement content sharing service system capable of distributing advertisement matching and advertisement revenue shown in FIG. 1 .
4 is a view showing an application example of the advertisement content sharing service system capable of distributing the face recognition advertisement matching and advertisement revenue shown in FIG. 1 .
FIG. 5 is a block diagram schematically showing the structure of the face recognition unit shown in FIG. 1 .
6 is a block diagram schematically showing the structure of the extraction unit shown in FIG. 5 .
FIG. 7 is a view showing a state in which face data is first divided into regions in order to recognize a face by the advertisement content sharing service system capable of distributing advertisement revenue and matching face recognition advertisements based on artificial intelligence shown in FIG. 1 .
FIG. 8 is a view showing a state in which the face data divided into regions shown in FIG. 7 is secondarily calculated and analyzed according to the brightness of each pixel.
Fig. 9(a) is a diagram showing a state in which a position, size, and ratio are recognized by distributing a large number of reference points on the contour in face data, and Fig. 9(b) is a diagram showing a state in which a plurality of reference points are distributed inside the face.
FIG. 10 is a diagram illustrating a CPU structure of the face recognition unit shown in FIG. 1 .
11 is a block diagram schematically showing the structure of the advertisement management unit shown in FIG.
12 is a flowchart illustrating a method for providing advertisements based on face recognition according to another embodiment of the present invention.
13 is a flowchart illustrating the procedure of the face recognition-based advertisement providing method of FIG. 12 .
FIG. 14 is a flowchart illustrating a process of recognizing a face in a fast mode among the face recognition-based advertisement providing methods shown in FIG.

이하, 본 발명에 따른 인공지능 기반의 얼굴인식 광고매칭 서비스 제공 시스템에 대하여 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, an artificial intelligence-based face recognition advertisement matching service providing system according to the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 11에 도시된 바와 같이, 본 발명이 제안하는 인공지능 기반의 얼굴인식 광고매칭 서비스 제공 시스템(1)은, 가맹점에 배치되어 고객의 얼굴을 촬영하여 이미지를 얻는 카메라(2)와; 카메라(2)로부터 얻어진 얼굴 이미지를 인공지능 기반으로 분석하여 얼굴을 인식하되, 고객의 신상을 구체적으로 특정하지 않고, DB화 하지 않은 상태에서 다만 성별, 나이, 감정상태, GPS 기반의 지역만을 인식하여 분석하는 얼굴 인식부(4)와; 광고 컨텐츠와 인식된 고객의 얼굴을 인공지능 기반으로 매칭하여 적합한 광고를 인출하는 광고 관리부(3)와; 광고 관리부(3)에서 전송된 광고를 표시하는 표시부(7)와; 가맹점별로 고객 정보를 분석하여 광고 단가를 연산하는 단가 연산부(9)와; 광고 컨텐츠에 따른 매출액 증감을 연산하여 정산하는 수익 정산부(11)와; 광고주로부터 수집된 광고 컨텐츠 및 각 가맹점의 고객에 대한 데이터가 저장되는 빅데이터 DB부(13)를 포함한다.1 to 11, the artificial intelligence-based face recognition advertisement matching service providing system 1 proposed by the present invention includes a camera 2 that is disposed in a franchise and obtains an image by photographing a customer's face; ; Recognizes a face by analyzing the face image obtained from the camera 2 based on artificial intelligence, but recognizes only the gender, age, emotional state, and GPS-based area without specifying the customer's identity in detail and without DB. and a face recognition unit 4 to analyze; an advertisement management unit (3) for retrieving suitable advertisements by matching advertisement contents with the recognized customer's face based on artificial intelligence; a display unit 7 for displaying advertisements transmitted from the advertisement management unit 3; a unit price calculation unit 9 for calculating an advertisement unit price by analyzing customer information for each affiliate store; a revenue settlement unit 11 for calculating and calculating sales increase/decrease according to advertisement content; and a big data DB unit 13 in which advertisement contents collected from advertisers and data on customers of each affiliated store are stored.

이러한 인공지능 기반의 얼굴인식 광고매칭 서비스 제공 시스템에 있어서, In this artificial intelligence-based face recognition advertisement matching service providing system,

카메라(2)는 다양한 종류의 카메라(2)를 의미하는 바, 예를 들면 IP카메라, IR카메라, HD카메라, Depth 카메라 등을 포함하며, 또한 스마트폰에 장착된 카메라일 수도 있다.The camera 2 refers to various types of cameras 2 , for example, including an IP camera, an IR camera, an HD camera, a depth camera, and the like, and may be a camera mounted on a smartphone.

이러한 카메라(2)는 근거리통신망(LAN) 광역통신망(WAN), 가상사설망(VPN), 이동통신망 또는 위성통신망과 같은 유/무선 네트워크를 통하여 데이터를 송수신한다.The camera 2 transmits and receives data through a wired/wireless network such as a local area network (LAN), a wide area network (WAN), a virtual private network (VPN), a mobile communication network, or a satellite communication network.

얼굴 인식부(4)는, 카메라(2)에 의하여 얻어진 가맹점 내의 고객 또는 가맹점 밖의 보행자들의 얼굴 이미지를 인공지능 기반으로 분석 및 인식하여 성별, 연령 별로 분류한다.The face recognition unit 4 analyzes and recognizes facial images of customers in the affiliated store or pedestrians outside the affiliated store obtained by the camera 2 based on artificial intelligence and classifies them by gender and age.

이러한 얼굴 인식부(4)는 획득된 동영상을 분석하여 하나 이상의 얼굴 데이터를 추출하고, 백터화하여 함수처리하고, 얼굴 특징점을 검출함으로써 얼굴을 인식할 수 있다. 이때, 얼굴을 인식함에 있어서, 고객의 신상을 구체적으로 특정하지 않고, 다만 성별, 나이, 감정상태, GPS 기반의 지역만을 인식하여 분석한다. 또한 분석된 얼굴 데이터를 DB화하지도 않는다.The face recognition unit 4 may recognize a face by analyzing the obtained video, extracting one or more face data, vectorizing the face data, performing function processing, and detecting facial feature points. In this case, in recognizing a face, the customer's identity is not specifically specified, but only gender, age, emotional state, and GPS-based region are recognized and analyzed. Also, the analyzed face data is not converted into DB.

그리고, 얼굴 인식부(4)는 머신러닝, 딥러닝과 같은 AI 코어와 Tensorflow, SSD, YOLO 와 같은 AI 프레임워크, 안드로이드 혹은 리눅스 기반의 OS와, CPU, GPU, TPU와 같은 프로세서(Processor)와 최소 4채널 이상을 지원하며, 인터페이스로는 USB, HDMI, Ethernet, 2.4G/5G의 듀얼밴드와, 블루투스 등을 구비한다.In addition, the face recognition unit 4 includes an AI core such as machine learning and deep learning, an AI framework such as Tensorflow, SSD, and YOLO, an Android or Linux-based OS, and a processor such as CPU, GPU, and TPU. It supports at least 4 channels, and interfaces include USB, HDMI, Ethernet, 2.4G/5G dual-band, and Bluetooth.

보다 상세하게 설명하면,In more detail,

도 5에 도시된 바와 같이, 얼굴 인식부(4)는 카메라(2)에 의하여 통해 실시간 입력되는 영상을 분석하여, 하나 이상의 얼굴 데이터를 동시에 추출하고, 추출된 하나 이상의 얼굴 데이터를 백터화하여 함수처리하는 추출부(15)와; 추출부(15)에서 처리된 얼굴 데이터에서 반사광, 화각, Dust 및 노이즈 제거를 진행함으로써 후처리를 하는 전처리부(17)와; 전처리부(17)에서 처리된 얼굴 데이터의 유사도를 판단함으로써 정의된 특징점 파라미터에 의하여 하나 이상의 얼굴 특징점을 동시에 분석하고 검출하는 특징 검출부(19)와; 특징 검출부(19)에서 검출된 하나 이상의 얼굴 이미지를 학습된 데이터베이스(13)에 등록하거나 또는 기존에 등록된 얼굴 특징점과 비교 분석하여 얼굴의 성별, 나이, 감정상태를 인식하는 얼굴 판별부(21)와; 그리고 상기 구성요소들을 제어하여 안면 인식을 진행하는 제어부(23)를 포함한다.As shown in FIG. 5 , the face recognition unit 4 analyzes an image inputted in real time by the camera 2 , simultaneously extracts one or more face data, and converts the extracted one or more face data into a vector to perform a function an extraction unit 15 for processing; a preprocessor 17 that performs post-processing by removing reflected light, angle of view, dust, and noise from the face data processed by the extraction unit 15; a feature detection unit 19 that simultaneously analyzes and detects one or more facial feature points according to the feature point parameters defined by determining the degree of similarity between the facial data processed by the preprocessor 17; A face discrimination unit 21 that registers one or more face images detected by the feature detection unit 19 in the learned database 13 or compares and analyzes them with previously registered facial feature points to recognize the gender, age, and emotional state of the face. Wow; And it includes a control unit 23 that performs face recognition by controlling the components.

이러한 얼굴 인식부(4)를 보다 상세하게 설명하면,When the face recognition unit 4 is described in more detail,

추출부(15)는 입력된 동영상 데이터에서 얼굴 데이터를 추출하게 된다. 이때, 다양한 웹을 이용하여 추출하게 되는 바, 예를 들면 DPM(Data Processing Manager), VAS(Vision Analytics System)등에 의하여 얼굴 데이터를 추출한다.The extraction unit 15 extracts face data from the input video data. In this case, the face data is extracted by using various webs, for example, a Data Processing Manager (DPM), a Vision Analytics System (VAS), or the like.

이러한 추출부(15)는 도 6에 도시된 바와 같이, 얼굴을 다수개의 영역으로 분할하는 얼굴 분할모듈(20)과; 픽셀의 형상을 인식하는 로컬 형상분석모듈(Local feature analysis;22)과; 픽셀의 밝기에 대한 벡터를 연산하는 백터 연산모듈(Vector feature analysis;24)과; 얼굴의 표면에 대한 질감을 분석하는 모듈(Surface texture analysis;26)을 포함한다.As shown in FIG. 6, the extraction unit 15 includes a face dividing module 20 for dividing a face into a plurality of regions; a local feature analysis module (22) for recognizing the shape of a pixel; a vector feature analysis module (24) for calculating a vector for the brightness of a pixel; Includes a module (Surface texture analysis; 26) for analyzing the texture of the surface of the face.

이러한 추출과정을 설명하면, 도 7에 도시된 바와 같이, 실시간으로 입력되는 영상에서 얼굴 영역을 사각형 또는 타원형의 모양으로 추출한다.When explaining the extraction process, as shown in FIG. 7 , a face region is extracted in a rectangular or oval shape from an image input in real time.

그리고, 추출된 얼굴영역을 얼굴 분할모듈(20)에 의하여 다수개의 영역으로 분할한 후, 얼굴 이미지에서 P점(Peak Point)을 추출하고, 이 P점을 중심으로 눈,코,입,귀를 인식하게 된다.Then, after dividing the extracted face region into a plurality of regions by the face segmentation module 20, a P point (Peak Point) is extracted from the face image, and the eyes, nose, mouth, and ears are separated from the P point as the center. become aware

즉, 영상에서 물체를 추적하거나 인식할 때, 영상에서 주요 특징점(key-point)을 추출하여 매칭하는 바, 이 경우 코너점(Corner point)을 추출하는 것이 중요하다. 코너점을 추출하는 방식은 FAST 기법 등 다양하다.That is, when tracking or recognizing an object in an image, a key-point is extracted and matched from the image. In this case, it is important to extract a corner point. There are various methods for extracting corner points, such as the FAST method.

따라서, 임의의 P점이 코너점인지 여부를 판단하여야 하는 바, 아래와 같은 과정에 의하여 판단한다.Therefore, it is necessary to determine whether an arbitrary P point is a corner point, and it is determined by the following process.

도 8에 도시된 바와 같이, 먼저 추출된 얼굴 데이터에서 로컬 형상분석모듈(22)에 의하여 임의의 픽셀을 선택한다. 이때 선택한 픽셀 P의 밝기는 Ip, threshold값은 t로 정의한다.As shown in FIG. 8 , an arbitrary pixel is first selected by the local shape analysis module 22 from the extracted face data. In this case, the brightness of the selected pixel P is defined as Ip, and the threshold value is defined as t.

그리고, P점을 중심으로 가상의 원을 형성하며, 이때 원의 반지름은 픽셀 3개 정도로 가정하고, 이 원에 접하는 16개 픽셀값을 추출한다. 물론 반지름의 크기를 적절하게 변경될 수 있다.Then, an imaginary circle is formed around the point P, and the radius of the circle is assumed to be about 3 pixels, and 16 pixel values tangent to the circle are extracted. Of course, the size of the radius can be changed appropriately.

그리고, 백터 연산모듈(24)에 의하여 16개 픽셀로 이루어진 원의 내부에 Ip+t 보다 일정값 이상 밝은(>p+t) 픽셀들이 n개 이상 연속되어 있거나, 또는 Ip-t 보다 일정값 이상 어두운 (<p-t) 픽셀들이 n개 이상 연속되어 있으면 p를 코너점으로 판단한다.And, by the vector operation module 24, n or more pixels that are brighter than Ip+t by a certain value (>p+t) are consecutive in a circle made of 16 pixels, or a certain value or more than Ip-t If n or more dark (<pt) pixels are continuous, p is determined as a corner point.

예를 들면, 1번 및 9번 픽셀이 P보다 더 밝은지 여부를 먼저 연산하고, 5번 및 13번 픽셀을 연산한다. 만약 P가 코너라면 연산한 4개의 픽셀,즉 1,5,9,13번 픽셀중 적어도 3개는 IP+t 보다 더 밝거나 IP-t보다 더 어둡다.For example, it is first calculated whether pixels 1 and 9 are brighter than P, and then pixels 5 and 13 are calculated. If P is a corner, then at least 3 of the computed 4 pixels, i.e. pixels 1, 5, 9, 13, are brighter than IP+t or darker than IP-t.

이때, P를 중심으로 연속되는 픽셀의 수는 3개 뿐만 아니라, 4개, 9개, 12개 등 다양하게 변동하여 적용할 수 있다.In this case, the number of consecutive pixels centered on P may be varied and applied, such as not only 3, but also 4, 9, 12, etc. FIG.

그리고, 상기한 인식과정에 있어서, n의 수가 적은 경우, 예를 들면 12보다 적은 경우에는 P를 선택하려는 픽셀 후보 수가 적어서 많이 제거하지 못하는 문제점이 있다. 또한, 얼굴 이미지의 특징을 검출하는 경우 코너 모양의 분포 등에 의존적이므로 픽셀 선택이 최적이 아닐 수 있다. Further, in the above-described recognition process, when the number of n is small, for example, less than 12, there is a problem in that the number of pixel candidates for selecting P is small, so that many cannot be removed. In addition, when detecting a feature of a face image, the pixel selection may not be optimal because it depends on the distribution of corner shapes and the like.

그리고, 코너가 아니라고 판단된 픽셀들은 분석에서 제외된다. 또한, 코너 주위에 다중 특징이 검출될 수도 있어서 코너 판단이 어려운 경우도 있다.Also, pixels determined not to be corners are excluded from the analysis. In addition, multiple features may be detected around a corner, making corner determination difficult in some cases.

따라서, 이러한 단점을 보완하기 위하여 다음과 같은 과정을 거치게 된다.Therefore, in order to compensate for these shortcomings, the following process is performed.

즉, 머신 러닝 혹은 딥러닝에 의하여 코너점을 검출한다. 이때, 딥러닝을 실행하기 위하여 VAS(Vision Analytics System), SIM(Sense Inference Manager)등을 이용한다.That is, corner points are detected by machine learning or deep learning. At this time, in order to execute deep learning, VAS (Vision Analytics System), SIM (Sense Inference Manager), etc. are used.

보다 상세하게 설명하면, 상기한 바와 같이 얼굴 이미지로부터 코너점을 검출하기 위한 과정을 동일하게 실행한다.In more detail, the same process for detecting corner points from the face image is performed as described above.

그리고, 검출된 모든 픽셀에 대해 픽셀 주위로 16개 픽셀의 각픽셀(x)을 벡터로 저장한다. Then, for all detected pixels, each pixel (x) of 16 pixels around the pixel is stored as a vector.

이때, 픽셀의 밝기값을 백터 연산모듈(24)에 의하여 아래 수식과 같이 백터(P)로 나타내는 경우, P보다 훨씬 밝은 경우(Pb), P보다 훨씬 어두운 경우(Pd), P와 유사한 경우(Ps)의 3가지 값으로 분류한다. 그리고, 이를 이용하여 원주 상의 픽셀들의 밝기분포를 16차원의 터네리 백터(ternary)로 표현한다.At this time, when the brightness value of the pixel is expressed as a vector (P) by the vector operation module 24 as shown in the following equation, it is much brighter than P (Pb), much darker than P (Pd), similar to P ( Ps) is classified into three values. And, using this, the brightness distribution of pixels on the circumference is expressed as a 16-dimensional ternary vector.

Figure 112020079001485-pat00001
--식1
Figure 112020079001485-pat00001
-- Expression 1

상기 식 1에 새로운 불린변수(Boolean)를 Kp로 정의하는 바, Kp는 P가 코너이면 트루(True), 아니면 폴스(False)이다.A new Boolean variable in Equation 1 is defined as Kp, where Kp is true if P is a corner, and false otherwise.

따라서, 상기 수식에 Kp변수를 적용하여 의사결정 트리(decision tree)를 기반으로 처리한다.Therefore, by applying the Kp variable to the above formula, processing is performed based on a decision tree.

Kp의 엔트로피가 0이 될 때까지 상기 수식 Pd, Ps, Pb에 반복하여 적용한다.The above equations Pd, Ps, and Pb are repeatedly applied until the entropy of Kp becomes 0.

이와 같은 과정을 통하여 각 코너를 검출할 수 있는 의사결정트리가 생성된다.Through this process, a decision tree capable of detecting each corner is generated.

이때, 어떤 점 P가 꼭지점으로 인식되면 P와 인접한 주변 점들도 같이 꼭지점으로 검출되는 경우가 많다.In this case, when a certain point P is recognized as a vertex, P and neighboring points adjacent to P are often also detected as vertices.

따라서, 이 문제를 해결하기 위해 비 최대 억제(non-maximal suppression) 방법을 이용하여 전처리 단계를 진행한다.Therefore, in order to solve this problem, a preprocessing step is performed using a non-maximal suppression method.

비 최대 억제법은 인접한 여러 점들이 꼭지점으로 검출된 경우 그중 피크성이 극대인 점만을 남기고 나머지를 제거하는 방식이다.The non-maximum suppression method is a method in which, when several adjacent points are detected as vertices, only the point with the maximum peak is left and the rest is removed.

그리고, 결정트리에 의하여 P를 결정하는 방식은 꼭지점 여부를 온(On)/오프(Off) 방식으로 결정하게 되므로, 깊이(depth) 정도를 수치화 하기 어려운 바, 다음과 같은 별도의 수치화된 스코어 함수(V)를 적용한다.(식2)And, since the method of determining P by the decision tree determines whether a vertex is an on/off method, it is difficult to quantify the degree of depth. (V) is applied. (Equation 2)

Figure 112020079001485-pat00002
------식(2)
Figure 112020079001485-pat00002
------Equation (2)

{V: 스코어 함수, x: 픽셀값, P: 코너점}{V: score function, x: pixel value, P: corner point}

상기 비 최대 억제법에 의하여 P점을 산출할 때, 결정트리를 통해 검출된 각각의, 코너점들을 상기 식(2)에 입력하여 V를 연산한다. When calculating the P point by the ratio maximum suppression method, V is calculated by inputting each of the corner points detected through the decision tree into Equation (2).

즉, V는 p와 이를 둘러싼 16개의 픽셀값(x)의 차에 대한 절대값(|x-p|)을 모두 합산한 값을 의미한다. 그리고, 근접한 2개의 p값에 대해 V를 연산하고, V값이 작은쪽을 버리는 방식으로 코너성이 극대인 점들을 파악한다.That is, V means the sum of all absolute values (|x-p|) of the difference between p and 16 pixel values (x) surrounding it. Then, points with maximum cornerity are identified by calculating V for two adjacent p values, and discarding the smaller V value.

이러한 방법으로 코너라고 파악된 기준점들에 의하여 눈, 코 끝, 눈썹, 입 양끝, 귀 등의 형상 및 위치가 결정된다. 이런 점들은 개인마다 형태가 크게 다르고 주변 형태도 복잡해 각 개인을 구분하는데 유용하다. In this way, the shape and position of the eyes, nose tip, eyebrows, both ends of the mouth, ears, etc. are determined by the reference points identified as corners. These points are useful for distinguishing each individual because the shape of each individual is very different and the surrounding shape is also complex.

그 외의 기준점들은 볼이나 이마의 한가운데 등에 위치시키는데 이런 점들은 개인마다의 특징은 별로 없지만 얼굴 전체 형상을 파악하기 위하여 필요하다.Other reference points are located on the cheeks or the middle of the forehead, etc. These points are not characteristic of each individual, but are necessary to grasp the overall shape of the face.

이와 같이 얼굴 특징 검출부(19)에서 추출된 하나 이상의 얼굴 데이터는 전처리부(17)에서 처리되는 바, 전처리부(17)는 얼굴 데이터에서 반사광, 화각, 등의 Dust 및 노이즈 제거를 실시한다.As described above, one or more face data extracted by the facial feature detection unit 19 is processed by the pre-processing unit 17, and the pre-processing unit 17 removes dust and noise such as reflected light, angle of view, etc. from the face data.

이와 같이 P점들을 파악한 후, 도 9a 및 도 9b에 도시된 바와 같이, 얼굴의 위치, 크기, 비율을 찾는데 P점들을 세부 기준점들로서 사용하게 된다.After identifying the P points in this way, as shown in FIGS. 9A and 9B , the P points are used as detailed reference points to find the position, size , and proportion of the face.

즉, 얼굴 특징 검출부(19)에 의하여 각 기준점을 무작위 순서로 선택해 백터화 하여 유사도 함수에 적용하되 그 위치를 조금씩 바꿔가며 얼굴 영상 이미지의 유사도를 올린다. 이 과정에서 백터 크기를 focus 1에서 5까지 점진적으로 올린다.That is, each reference point is selected in random order by the facial feature detection unit 19 to be vectorized and applied to the similarity function, but the position is slightly changed to increase the similarity of the facial image image. In this process, the vector size is gradually increased from focus 1 to 5.

도 9a에 도시된 바와 같이, 얼굴의 형상에 기준점들을 많이 분포시켰고 비교적 기준점의 수가 적다. 도 9b에 도시된 바와 같이, 얼굴 안쪽에 기준점들이 비슷한 간격으로 다수 분포되어 있다. As shown in Fig. 9a, many reference points are distributed in the shape of the face, and the number of reference points is relatively small . As shown in FIG. 9B , a plurality of reference points are distributed at similar intervals on the inside of the face .

위의 과정에서 focus 1의 경우 앞에서 설정한 수치들을 그대로 쓴다면 8 픽셀이 위치 차이 벡터의 최대 크기가 될 것이다. 다만 training set이나 원하는 성능의 정도에 따라 wavelet의 방향, 주파수들은 사용자가 임의로 설정할 수 있으므로 step 1, 2에서의 픽셀 단위들도 그에 맞춰 조정을 하여 각각의 정의 된 P점들 사이의 픽셀 간격에 의하여 얼굴의 특징점을 검출한다.In the case of focus 1 in the above process, if the previously set values are used as they are, 8 pixels will be the maximum size of the position difference vector. However, according to the training set or desired performance level, the direction and frequency of the wavelet can be set arbitrarily by the user, so the pixel units in steps 1 and 2 are also adjusted accordingly and the face is determined by the pixel spacing between each defined P point. to detect the feature points of

그리고, 필요시 질감 분석모듈(26)에 의하여 얼굴의 표면에 대한 질감도 분석하게 된다.And, if necessary, the texture on the surface of the face is also analyzed by the texture analysis module 26 .

이와 같이, 얼굴 특징 검출부(19)에 의하여 얼굴 이미지의 다수 픽셀에 대한 형상, 밝기, 질감 등의 특징을 백터화 하여 함수에 의하여 처리하여 추출한 후, 서로 조합함으로써 특징점 파라미터에 의하여 하나 이상의 얼굴 특징점을 동시에 분석하고 검출하게 된다.In this way, the facial feature detection unit 19 converts features such as shape, brightness, texture, etc. of multiple pixels of the face image into vectors, processes and extracts them by a function, and then combines them with each other to determine one or more facial feature points according to the feature point parameters. Analyze and detect at the same time.

한편, 전처리부(17)에서 처리된 얼굴 이미지에 대한 인식시간을 단축하기 위하여 얼굴 이미지의 일부만 검출한 후, 특정 얼굴이 매칭되지 않는 경우 나머지 검출하지 않은 얼굴 이미지를 추가로 검출하여 인식과정을 진행할 수도 있다.On the other hand, in order to shorten the recognition time for the face image processed by the preprocessor 17, after detecting only a part of the face image, if a specific face does not match, the remaining undetected face image is additionally detected to proceed with the recognition process. may be

즉, 제어부(23)에 의하여 일반모드를 신속모드로 변경 설정하는 경우, 얼굴 분할모듈(20)에 의하여 얼굴을 일정 영역씩 분할한 후, 얼굴 특징 검출부(19)에 의하여 해당 영역의 얼굴 특징을 검출한 후, 얼굴 판별부(21)에 의하여 데이터베이스(13)로부터 매칭되는 얼굴 데이터를 인출하여 비교하게 된다.That is, when the general mode is changed to the quick mode by the control unit 23, the face is divided by the face division module 20 by a predetermined region, and then the facial features of the corresponding region are detected by the facial feature detection unit 19. After detection, matching face data is retrieved from the database 13 by the face discrimination unit 21 and compared.

보다 상세하게 설명하면, 얼굴의 코를 중심으로 가로 및 세로선을 형성하여 복수개의 영역, 예를 들면 대칭 가능한 짝수개의 영역인 4구역으로 분할하고, 좌상단 영역에서 시계방향으로 제 1, 제2, 제3, 제4영역으로 설정한다.In more detail, horizontal and vertical lines are formed around the nose of the face and divided into a plurality of regions, for example, 4 regions, which are even-numbered regions that can be symmetrical, and the first, second, and second regions in the clockwise direction from the upper left region. 3 and 4 are set.

그리고, 제 1영역인 좌측 눈 부위의 특징을 먼저 검출한다. 그리고, 데이터베이스(13)에서 해당 영역과 매칭되는 부분이 있는지를 연산한다. Then, the feature of the left eye region, which is the first region, is first detected. Then, it is calculated whether there is a part matching the corresponding area in the database 13 .

만약 매칭되는 부분이 없으면 제 4영역, 즉 좌측 눈 부위의 바로 아래 영역의 특징을 검출하여 매칭되는 얼굴 이미지를 검색한다. If there is no matching part, a matching face image is searched for by detecting the feature of the fourth region, that is, the region immediately below the left eye region.

즉, 제 1영역과 대칭되는 제 2영역은 미러(Mirror) 기법에 의하여 특징을 처리할 수 있음으로 대칭되지 않는 제 4영역의 특징을 검출하는 것이 바람직하다.That is, since the feature of the second region that is symmetrical with the first region can be processed by a mirror technique, it is preferable to detect the feature of the fourth region that is not symmetrical.

그리고, 제 4영역에서도 검출되지 않는 경우에는 얼굴 전체 영역에 대한 검출을 실시한다.Then, when detection is not performed even in the fourth region, the entire face region is detected.

이와 같이, 얼굴을 복수개의 영역으로 구분하여 단수개의 영역부터 순차적으로 특징을 검출하여 매칭하되, 특정 얼굴이 매칭되지 않는 경우에는 대칭적으로 배치된 영역을 제외한 다른 영역의 특징을 검출하여 매칭되는 얼굴 데이터를 비교함으로써 얼굴 인식을 신속하게 실시할 수 있다.In this way, the face is divided into a plurality of regions, and features are sequentially detected and matched from a single region, but when a specific face is not matched, the features of other regions except for the symmetrically arranged region are detected and matched. By comparing data, face recognition can be performed quickly.

그리고, 이러한 제 1 내지 제 4영역에 대한 특징점 검출을 실시하기 전에, 얼굴의 특이 형상에 대한 특징을 먼저 실시함으로써 인식 시간을 신속하게 단축할 수도 있다. 예를 들면, 얼굴의 일정 부분에 큰 점 혹은 흉터, 안면 비대칭 등의 특징이 있어서 얼굴 판별부(21)에 의하여 쉽게 검출할 수 있는 경우, 이러한 특징점을 우선적으로 처리함으로써 인식 시간을 단축할 수 있다.In addition, the recognition time can be quickly shortened by first performing the feature on the specific shape of the face before performing the feature point detection on the first to fourth regions. For example, if a certain part of the face has features such as large dots, scars, facial asymmetry, etc., and can be easily detected by the face discrimination unit 21, the recognition time can be shortened by preferentially processing these feature points. .

한편, 얼굴 판별부(21)에서는 전처리부(17)에서 검출된 하나 이상의 얼굴 이미지를 판별하게 된다.Meanwhile, the face determination unit 21 determines one or more face images detected by the preprocessor 17 .

이러한 얼굴 판별부(21)는 얼굴인식분석엔진이 탑재된 중앙처리장치(CPU)에 의하여 처리될 수 있다.The face determination unit 21 may be processed by a central processing unit (CPU) on which a face recognition analysis engine is mounted.

참고로, 중앙처리장치는 도 10에 도시된 바와 같이, 얼굴분석엔진과, GPU와, ISP(Image Signal Processor), ALSA(Advanced Linux Sound Architecture), RTSP(Real Time Streaming Protocol), 통신모듈에 의하여 신호를 송수신하게 된다. For reference, as shown in FIG. 10, the central processing unit is configured by a face analysis engine, a GPU, an ISP (Image Signal Processor), an ALSA (Advanced Linux Sound Architecture), an RTSP (Real Time Streaming Protocol), and a communication module. signals are sent and received.

이러한 얼굴 판별부(21)에서는 얼굴의 형태 분석을 다양한 알고리즘을 사용할 수 있는 바, 예를 들면 딥러닝(Deep learning) 방식에 의하여 얼굴의 형상 등을 비교하여 그 유사도를 판단함으로써 형태을 분석하는 방식이다.In the face determination unit 21, various algorithms can be used to analyze the shape of the face, for example, by comparing the shape of the face by a deep learning method and determining the similarity, it is a method of analyzing the shape. .

즉, 딥러닝은 컴퓨터가 여러 데이터를 이용해 인간처럼 스스로 학습할 수 있게 하기 위해 인공 신경망(ANN: artificial neural network)을 기반으로 구축한 한 기계 학습방법이다.In other words, deep learning is a machine learning method built on the basis of artificial neural networks (ANNs) to enable computers to learn on their own like humans using multiple data.

인공 신경망을 이용하면 얼굴 데이터의 분류(classification) 및 군집화(clustering)가 가능한 바, 분류나 군집화를 원하는 데이터 위에 여러 가지 층(layer)을 얹어서 유사도 판단을 실시할 수 있다.Since classification and clustering of face data is possible using an artificial neural network, similarity determination can be performed by placing various layers on the data desired for classification or clustering.

즉, 인공 신경망으로 얼굴 데이터의 형상 특징을 추출하고 그 특징을 다시 다른 기계학습 알고리즘의 입력값으로 사용하여 형상 별로 분류나 군집화를 함으로써 유사도를 판단할 수 있다. That is, the degree of similarity can be determined by extracting shape features of face data with an artificial neural network and classifying or clustering them by shape using the features as input values for other machine learning algorithms.

이러한 인공 신경망은 심층 신경망을 포함하는 바, 심층 신경망은 신경망 알고리즘 중에서 여러 개의 층으로 이루어진 신경망을 의미한다. The artificial neural network includes a deep neural network, and the deep neural network refers to a neural network composed of several layers among neural network algorithms.

즉, 인공 신경망은 다층으로 구성되는 바, 각각의 층은 여러 개의 노드로 구성되고, 각 노드에서는 실제로 형상을 분류하는 연산이 일어나며, 이 연산 과정은 인간의 신경망을 구성하는 뉴런에서 일어나는 과정을 모사하도록 설계된다.That is, the artificial neural network is composed of multiple layers, each layer is composed of several nodes, and an operation to classify the shape actually occurs at each node, and this operation process simulates the process occurring in the neurons constituting the human neural network. designed to do

노드는 일정 크기 이상의 자극을 받으면 반응을 하는데, 그 반응의 크기는 입력 값과 노드의 계수(또는 가중치, weights)를 곱한 값과 대략 비례한다. When a node receives a stimulus of a certain size or more, it responds, and the magnitude of the response is roughly proportional to the value multiplied by the input value and the node's coefficient (or weights).

일반적으로 노드는 여러 개의 입력을 받으며 입력 갯수만큼의 계수를 갖는다. 따라서, 이 계수를 조절함으로써 여러 입력에 서로 다른 가중치를 부여할 수 있다. In general, a node receives multiple inputs and has as many coefficients as the number of inputs. Therefore, by adjusting this coefficient, different weights can be given to different inputs.

최종적으로 곱한 값들은 전부 더해지고 그 합은 활성 함수(activation function)의 입력으로 들어가게 된다. 활성 함수의 결과가 노드의 출력에 해당하며 이 출력값이 궁극적으로 분류나 회귀 분석에 쓰인다.Finally, the multiplied values are all added and the sum is fed into the activation function. The result of the activation function corresponds to the output of the node, and this output is ultimately used for classification or regression analysis.

각 층은 여러 개의 노드로 이루어지며 입력값에 따라 각 노드의 활성화/비활성화 여부가 결정된다. 이때, 입력 데이터는 첫 번째 층의 입력이 되며, 그 이후엔 각 층의 출력이 다시 다음 층의 입력이 되는 방식이다.Each layer consists of several nodes, and whether each node is activated/deactivated is determined according to the input value. At this time, the input data becomes the input of the first layer, and after that, the output of each layer becomes the input of the next layer again.

모든 계수는 얼굴 데이터의 형상 학습 과정에서 계속 조금씩 변하는데, 결과적으로 각 노드가 어떤 입력을 중요하게 여기는지를 반영한다. 그리고 신경망의 학습(training)은 이 계수를 업데이트하는 과정이다.All coefficients change little by little during the shape learning process of face data, and as a result, reflect which input each node considers important. And training of the neural network is the process of updating this coefficient.

얼굴 데이터의 형상 학습시 이러한 심층 신경망에서는 각 층마다 서로 다른 층위의 특징이 학습된다.When learning the shape of face data, in this deep neural network, different layer features are learned for each layer.

즉, 낮은 층위의 특징은 단순하고 구체적인 특징이 학습되며 {예: 얼굴 데이터의 형상을 구성하는 형상}, 높은 층위의 특징은 더욱 복잡하고 추상적인 특징이 학습된다. {예: 코 높이, 눈썹형상, 입꼬리 형상, 눈매}That is, simple and specific features are learned for low-level features, {eg, a shape composing the shape of face data}, and more complex and abstract features are learned for high-level features. {Example: nose height, eyebrow shape, lip shape, eyebrows}

이런 추상화 학습과정을 통해 심층 신경망이 고차원의 데이터를 이해하며, 이 과정에는 수 억, 수 십억 개의 계수가 관여하게 된다. (이 과정에서 비선형함수가 사용된다.)Through this abstraction learning process, the deep neural network understands high-dimensional data, and hundreds of millions or billions of coefficients are involved in this process. (A non-linear function is used in this process.)

또한, 심층 신경망은 데이터를 이용해 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 얼굴 데이터의 윤곽, 코 높이, 눈매, 입술형상, 눈썹 형상, 이마 형상 등 잠재적인 구조를 파악할 수 있다. 이를 통해 데이터가 라벨링되어 있지 않아도 데이터간의 유사성을 효과적으로 파악할 수 있으며, 결과적으로 심층 신경망은 얼굴 데이터의 군집화에 효과적이다.In addition, deep neural networks can use the data to figure out the latent structures of the data. In other words, potential structures such as contour, nose height, eyes, lip shape, eyebrow shape, and forehead shape of the face data can be identified. Through this, similarity between data can be effectively identified even if the data is not labeled, and as a result, deep neural networks are effective for clustering face data.

예를 들어, 신경망을 이용해 대량의 얼굴 데이터를 입력받아 비슷한 얼굴 데이터끼리 모아서 분류할 수 있다.For example, a large amount of face data can be input using a neural network, and similar face data can be collected and classified.

이러한 심층 신경망이 일반적인 기계 학습과 다른 점은 특징 추출(feature extraction)이 자동적으로 이루어진다는 점이다. The difference between this deep neural network and general machine learning is that feature extraction is performed automatically.

기존에는 효과적인 특징을 추출하기 위해 관련 분야 전문가가 오랜 시간동안 직접 특징을 추출하는 수식이나 방법을 고안해서 적용해야 했다. 이 방법은 개발, 평가 및 보완에 많은 시간이 걸리는 문제점이 있다. In the past, in order to extract effective features, experts in the relevant field had to devise and apply formulas or methods for extracting features directly for a long time. This method has a problem that it takes a lot of time to develop, evaluate, and supplement.

심층 신경망은 이런 과정을 컴퓨터가 대신 하도록 알고리즘을 짠 것으로, 사람에 비해 훨씬 빠르고 효과적으로 수행하도록 학습시킨다.A deep neural network is an algorithm designed to make a computer take over this process, and it trains it to perform much faster and more effectively than humans.

라벨링이 되어있지 않은 데이터를 학습하는 경우에도 신경망은 얼굴 데이터의 특징을 자동적으로 추출할 수 있다. 이 자동 추출은 여러 가지 방법이 있는데, 보통 이 과정은 신경망을 통과시켰을 때의 출력이 입력과 같아지도록 학습하게 된다. Even when learning unlabeled data, the neural network can automatically extract features from facial data. There are several methods for this automatic extraction, and in general, this process learns to make the output equal to the input when passed through the neural network.

라벨이 어떤 종류이든지(입력을 그대로 사용/별도의 라벨을 사용) 신경망은 입력과 출력의 상관관계를 찾는다. 경우에 따라서는 라벨링된 데이터로 신경망을 어느 정도 학습시킨 뒤 라벨링이 되어있지 않은 데이터를 추가하여 계속 학습시킬 수도 있다. 이 방법을 이용하면 신경망의 성능을 극대화할 수 있다.No matter what kind of label is (use the input as is/use a separate label), the neural network finds the correlation between the input and the output. In some cases, after training the neural network to some extent with labeled data, it is possible to continue learning by adding unlabeled data. Using this method, the performance of the neural network can be maximized.

심층 신경망의 마지막 층은 출력층이다. 출력층의 활성 함수는 로지스틱(logistic) 혹은 소프트 맥스(softmax)인 경우가 대부분이며 출력층에서는 최종적으로 특정 라벨의 확률을 구할 수 있다. 예를 들어 얼굴 데이터를 입력하였을 때 얼굴 윤곽이 상하로 긴지, 좌우로 긴지, 코의 높낮이, 입꼬리의 처짐, 눈꼬리의 처짐, 주름의 대소, 길이 등을 각각의 확률로 구할 수 있다.The last layer of a deep neural network is the output layer. In most cases, the activation function of the output layer is logistic or softmax, and the probability of a specific label can be finally obtained from the output layer. For example, when facial data is input, whether the contour of the face is long vertically or horizontally, the height of the nose, the sagging of the corners of the mouth, the sagging of the corners of the eyes, the size and length of wrinkles, etc. can be obtained with respective probabilities.

우선 학습이 시작되기 전에 뉴럴넷의 모든 계수를 초기화한다. 그리고 얼굴 데이터를 반복적으로 입력하여 학습을 진행한다. 만일 학습이 원활하게 진행되었다면 계수는 적절한 값으로 업데이트 되어 있을 것이고, 이 인공 신경망으로 각종 분류와 예측이 가능하다.First, all coefficients of the neural net are initialized before training starts. Then, face data is repeatedly input to learn. If the learning proceeds smoothly, the coefficients will be updated to appropriate values, and various classifications and predictions are possible with this artificial neural network.

학습 과정 내부에선 이러한 계수의 업데이트 과정이 반복적으로 일어난다.In the learning process, the updating process of these coefficients occurs repeatedly.

계수 업데이트의 원리는 우선 계수를 추정하고 그 계수를 사용했을 때 발생하는 에러를 측정한 뒤 그 에러에 기반해서 계수를 약간씩 업데이트 하는 방식이다.The principle of coefficient update is to estimate the coefficient first, measure the error that occurs when the coefficient is used, and then slightly update the coefficient based on the error.

이때, 신경망의 여러 계수를 합쳐서 모델이라고 부르며, 모델은 초기화 된 상태일 수도 있고, 학습이 완료된 상태일 수도 있다.At this time, the multiple coefficients of the neural network are collectively called a model, and the model may be in an initialized state or in a state in which learning is completed.

초기화된 모델은 의미있는 작업을 못하지만 학습이 진행될수록 모델은 임의의 값이 아닌, 실제와 유사한 결과를 출력하게 된다.The initialized model does not perform any meaningful work, but as learning progresses, the model outputs results similar to the actual value rather than a random value.

이는 인공 신경망이 데이터가 입력되기 전에는 아무것도 모르는 상태이기 때문이며, 계수를 임의의 값으로 초기화하는 이유도 마찬가지이다. 그리고 데이터를 읽어가면서 계수를 조금씩 올바른 방향으로 업데이트하게 된다.This is because the artificial neural network does not know anything before data is input, and the reason for initializing coefficients to arbitrary values is also the same. And as the data is read, the coefficients are updated little by little in the correct direction.

이러한 업데이트 과정을 통하여 인공 신경망은 입력된 얼굴 데이터들을 분류함으로써 유사한 얼굴 데이터들을 군집화할 수 있다. Through this update process, the artificial neural network can group similar face data by classifying the input face data.

이때 얼굴 데이터들은 유형별로 군집화될 수 있는 바, 예를 들면, 성별, 나이, 감정의 상태에 따라 군집화될 수 있다.In this case, the face data may be clustered by type, for example, may be clustered according to gender, age, and emotional state.

그리고, 감정은 기쁨, 슬픔, 화남, 우울함 등으로 분류될 수 있다.And, emotions may be classified into joy, sadness, anger, depression, and the like.

이와 같이 군집화된 얼굴 데이터는 데이터 베이스(13)에 등록된다.The face data clustered in this way is registered in the database 13 .

이때, 데이터 베이스(13)에 등록되는 데이터는 고객의 신상을 파악할 수 있는 구체적인 데이터가 아니라, 성별, 나이, 감정, GPS 기반의 지역만을 인식할 수 있는 데이터를 의미한다.In this case, the data registered in the database 13 means data that can recognize only the gender, age, emotion, and GPS-based region, not specific data that can identify the customer.

한편, 도 11에 도시된 바와 같이, 광고 관리부(3)는 광고 컨텐츠를 수집하고 군집화된 고객의 얼굴에 따라 적합한 광고를 인출하여 표시한다.On the other hand, as shown in FIG. 11 , the advertisement management unit 3 collects advertisement contents and retrieves and displays suitable advertisements according to the clustered faces of customers.

이러한 광고 관리부(3)는, 광고 컨텐츠를 수집하고 저장하는 수집모듈(30)과; 수집된 광고 컨텐츠를 분류하는 분류모듈(32)과; 검출된 얼굴 특징에 대응되는 광고 컨텐츠를 선택하기 위한 경로를 탐색하는 탐색모듈(34)과; 탐색된 광고 컨텐츠를 추천하는 추천모듈(36)과; 추천된 광고 컨텐츠를 표시부(7)를 통하여 표시하는 표시모듈(38)과; 사용자 정보를 관리하는 관리모듈(40)을 포함한다.The advertisement management unit 3 includes: a collection module 30 for collecting and storing advertisement contents; a classification module 32 for classifying the collected advertisement contents; a search module 34 for searching a path for selecting advertisement content corresponding to the detected facial feature; a recommendation module 36 for recommending searched advertisement contents; a display module 38 for displaying the recommended advertisement content through the display unit 7; and a management module 40 for managing user information.

보다 상세하게 설명하면,In more detail,

수집모듈(30)은 광고주로부터 온라인 혹은 오프라인으로 제공받은 광고 컨텐츠를 수집하고 저장한다. 이때, 광고주로부터 광고의 노출 대상에 대한 정보를 복합적인 방법으로 취득함으로써 광고 컨텐츠 매칭 알고리즘에 의하여 광고 컨텐츠를 검색할 수 있다.The collection module 30 collects and stores advertisement contents provided online or offline from advertisers. In this case, by acquiring information on an advertisement exposure target from the advertiser in a complex way, the advertisement contents can be searched by the advertisement contents matching algorithm.

분류모듈(32)은 수집된 광고 컨텐츠를 특징에 따라 분류한다. 예를 들면, 건강관련 광고, 스포츠 관련, 헬스 관련, 재테크 관련 광고 등으로 분류한다.The classification module 32 classifies the collected advertisement contents according to characteristics. For example, it is classified into health-related advertisements, sports-related, health-related, and financial-related advertisements.

탐색모듈(34)은 얼굴 특징 검출부(19)에 의하여 검출된 얼굴 특징에 대응되는 광고 컨텐츠를 선택하기 위한 경로를 탐색한다.The search module 34 searches a path for selecting advertisement content corresponding to the facial feature detected by the facial feature detection unit 19 .

추천모듈(36)은 경로가 탐색된 광고 컨텐츠를 분류된 얼굴 유형에 따라 데이터 베이스에서 광고 컨텐츠를 인출하여 추천한다. 예를 들면, 나이에 따라 적합한 광고 컨텐츠를 인출하는 바, 나이가 적은 어린층의 경우, 아동용 광고 컨텐츠를 인출하고, 노년층의 경우 건강 관련 컨텐츠를 인출하는 방식이다.The recommendation module 36 fetches and recommends the advertisement contents for which the route is searched from the database according to the classified face types. For example, a bar suitable for retrieving advertisement contents according to age is a method of retrieving advertisement contents for children in the case of a younger group, and fetching health-related contents in the case of an elderly group.

또한, 청년층의 경우 헬스 관련 광고 컨테츠를 인출하거나, 장년층의 경우 재테크 관련 컨텐츠를 인출하게 된다.In addition, in the case of young people, health-related advertising content is withdrawn, and in the case of the elderly, financial-related content is withdrawn.

그리고, 성별에 따라서도 광고 컨텐츠를 인출할 수 있는 바, 남성의 경우는 스포츠 관련 컨텐츠를 인출하고, 여성의 경우는 화장품 관련 컨텐츠를 인출하는 방식이다.In addition, advertisement contents can be retrieved according to gender. In the case of men, sports-related contents are retrieved, and in the case of women, cosmetic-related contents are retrieved.

또한, 감정에 따라서 광고 컨텐츠를 인출할 수 있는 바, 기쁨상태인 경우에는 여행 컨텐츠를 인출하고, 슬픔인 경우에는 주류 관련 컨텐츠를 인출하며, 성냄상태인 경우에는 화를 추스릴 수 있는 음원이나 게임, 여행 관련 광고 컨텐츠를 인출하고, 우울한 상태인 경우에는 여행이나 스포츠와 같은 밝은 컨텐츠를 인출하게 된다.In addition, advertisement contents can be retrieved according to emotions. In the case of joy, travel contents are retrieved, in case of sadness, alcohol-related contents are retrieved, and in the case of anger, sound sources or games that can control anger. , travel-related advertisement content is fetched, and in a depressed state, bright content such as travel or sports is fetched.

이와 같이 추천모듈(36)은 인식된 얼굴 데이터에 따라 적절한 광고 컨텐츠를 선택하여 인출하게 된다.In this way, the recommendation module 36 selects and retrieves appropriate advertisement content according to the recognized face data.

그리고, 추천모듈(36)이 분류된 얼굴 유형에 따라 광고 컨텐츠를 추천하기 어려운 경우, 예를 들면 분류된 남성 및 여성의 비율이 유사하거나, 청년 및 노인의 비율이 유사한 경우 어느 일측에 대응되는 광고 컨텐츠를 인출하기 어렵다.And, when it is difficult for the recommendation module 36 to recommend advertisement content according to the classified face type, for example, when the classified ratios of men and women are similar, or when the ratios of young people and the elderly are similar, the advertisement corresponding to either side It is difficult to retrieve the content.

이러한 경우 광고 관리부(3)는 판단모듈(43)을 추가로 구비함으로써 분류된 얼굴 유형의 비율을 연산하고, 비율이 일정 범위 이내라면 해당 광고 컨텐츠 모두를 교대로 표시하게 된다.In this case, the advertisement management unit 3 additionally includes the determination module 43 to calculate the ratio of the classified face types, and if the ratio is within a predetermined range, all the corresponding advertisement contents are displayed alternately.

즉, 판단모듈(43)은 얼굴 데이터의 분류 비율을 실시간으로 연산하고, 성별, 나이별, 지역 비율이 일정 범위 이내인 경우, 예를 들면 5:5인 경우 대응한 비율로 판단하여 어느 일측에 대응되는 광고 컨텐츠만을 표시하는 것이 아니라, 양측 광고 컨텐츠 모두를 교대로 표시하게 된다.That is, the determination module 43 calculates the classification ratio of the face data in real time, and if the gender, age, and region ratios are within a certain range, for example, 5:5, the determination module 43 determines the corresponding ratio to either side. Instead of displaying only the corresponding advertisement contents, both advertisement contents are displayed alternately.

이와 같이, 어느 일측만의 광고 컨텐츠를 표시하는 것이 아니라, 양측 모두 표시함으로써 광고 효과를 높일 수 있다.In this way, the advertisement effect can be enhanced by displaying both sides of the advertisement content instead of displaying only one side of the advertisement content.

이때, 양측의 비율에 따라 광고 시간을 조절할 수도 있는 바, 예를 들면 4:6인 경우 이 비율에 따라 양측 광고 시간도 비례하여 표시할 수 있다.In this case, the advertisement time may be adjusted according to the ratio of both sides. For example, in the case of 4:6, the advertisement time of both sides may be displayed proportionally according to this ratio.

그리고, 추천모듈(36)은 광고 컨텐츠를 표시하는 경우, 우선순위에 따라 추천할 수도 있다.In addition, when displaying advertisement content, the recommendation module 36 may recommend it according to priority.

즉, 1차로는 상기한 바와 같이 고객의 얼굴 데이터를 성별, 감정별, 지역별로 분류하여 해당 광고 컨텐츠를 표시하고, 2차로는 매출효과가 좋은 광고 컨텐츠를 추천하고, 3차로는 시간 데이터를 연동시켜서 아침, 저녁으로 구분하거나, 4계절로 구분하여 해당 시간에 적합한 광고 컨텐츠를 추천하는 방식이다.That is, the first step is to classify the customer’s face data by gender, emotion, and region as described above and display the corresponding advertisement content, the second step is to recommend the advertisement content with good sales effect, and the third step is to link the time data. It is a method of recommending advertisement content suitable for the time by dividing it into morning and evening or by dividing it into four seasons.

즉, 1차 단계에서는, 상기한 바와 같이, 추천모듈(36)에 의하여 얼굴 데이터를 성별, 감정별, 지역별로 분류하고, 해당 광고 컨텐츠를 인출하여 표시하는 과정이다.That is, in the first step, as described above, face data is classified by gender, emotion, and region by the recommendation module 36, and the corresponding advertisement content is retrieved and displayed.

2차 단계에서는, 가맹점 내에 설치된 포스기, 카드결제기, 전자 금고 등의 단말기에 의하여 판매된 상품 종류 및 매출액을 파악할 수 있고, 광고 관리부(3)에 의하여 해당 광고 노출시간을 파악하여 서로 비교함으로써 구체적으로 해당 광고로 인한 매출액의 증감을 실시간으로 파악하여 매출효과가 좋은 상품을 선택할 수 있다.In the second step, the types and sales of products sold by terminals such as POS machines, card payment machines, and electronic safes installed in the affiliated stores can be grasped, and the advertisement exposure time is identified by the advertisement management unit 3 and compared with each other. Specifically, it is possible to select a product with a good sales effect by grasping the increase or decrease in sales in real time due to the advertisement.

3차 단계에서는 광고 관리부(3)가 시간 데이터를 얼굴 데이터와 연동시켜서 아침, 저녁으로 구분하거나, 4계절로 구분하고, 추천모듈(36)이 각 시간 혹은 계절에 적합한 광고 컨텐츠를 추천하는 방식이다. 이때, 2차 단계에서 매출효과가 좋은 것으로 선정된 아이템중 시간 혹은 계절에 적합한 광고 컨텐츠를 추천하는 것이 바람직하다.In the third step, the advertisement management unit 3 links the time data with the face data to classify it into morning and evening or four seasons, and the recommendation module 36 recommends advertisement content suitable for each time or season. . In this case, it is preferable to recommend advertisement content suitable for a time or season among the items selected as having a good sales effect in the second step.

예를 들면, 의류에 대하여 광고를 노출시키는 경우, 성별이 여성인 경우 우선 여성용 의류에 대한 광고를 노출시키되, 매출이 높은 여성용 외투에 대하여 광고를 노출시키고, 이때 계절이 여름인 경우 여름 외투에 대한 광고를 노출시키는 방식이다. 이러한 방식으로 광고 컨텐츠를 추천함으로써 광고의 효율을 향상시킬 수 있다.For example, when exposing advertisements for clothing, if the gender is female, first expose advertisements for women's clothing, but expose advertisements for women's coats with high sales, and in this case, if the season is summer, A way to display advertisements. By recommending the advertisement content in this way, the efficiency of the advertisement can be improved.

상기 표시모듈(38)은 추천된 광고 컨텐츠를 광고 표시창에 표시함으로써 광고를 진행할 수 있다. The display module 38 may display the recommended advertisement content on the advertisement display window to proceed with the advertisement.

이때, 광고 표시창(32)은 다양한 방식의 광고 표시창(32)을 포함하며, 예를 들면 가맹점에 설치되어 있는 TV, 전광판 엘이디(LED) 등이 가능하다.In this case, the advertisement display window 32 includes various types of advertisement display windows 32 , and for example, a TV installed in an affiliated store, an LED on an electric sign board, and the like is possible.

한편, 도 4에 도시된 바와 같이, 단가 연산부(9)는 가맹점별로 고객 정보를 분석하여 광고 단가를 연산하게 된다.Meanwhile, as shown in FIG. 4 , the unit price calculation unit 9 calculates an advertisement unit price by analyzing customer information for each affiliate store.

이러한 단가 연산부(9)는 가맹점을 방문한 고객을 성별, 연령별, 감정별, 지역별로 분류하고 각 방문자수에 의하여 광고단가를 산출한다.The unit price calculation unit 9 classifies customers who have visited the affiliated store by gender, age, emotion, and region, and calculates an advertisement unit price based on the number of visitors.

이때, 방문자수를 일별, 주간, 월별로 분석하여 광고단가를 산출할 수 있다.In this case, the number of visitors may be analyzed by day, week, and month to calculate the advertisement unit price.

예를 들면, 화장품 판매점을 방문한 고객이 여성이고, 젊은층이며, 1일 100명이라면 소정의 금액을 광고단가로 산정하는 방식이다. 이때, 동일한 방문수인 경우라도 고객이 남성이고 노년층인 경우 광고효과가 상대적으로 높다고 판단되어 광고단가를 낮추는 것도 가능하다.For example, if the customers who visit the cosmetics store are women, young people, and 100 people per day, a predetermined amount is calculated as the advertising unit price. In this case, even if the number of visits is the same, if the customer is a male and an elderly person, it is determined that the advertisement effect is relatively high, so it is possible to lower the advertisement unit price.

그리고, 수익 정산부(11)는 광고 컨텐츠에 노출 횟수 및 광고 노출 시간에 따른 광고비의 증감을 연산하여 수익을 정산하게 된다.Then, the revenue settlement unit 11 calculates the increase/decrease of the advertisement cost according to the number of exposures to the advertisement content and the advertisement exposure time to settle the revenue.

이때, 수익을 정산하는 방식은 다양한 바, 예를 들면 광고 노출로 인하여 발생하는 매출액 증감 혹은 지역별 각 가맹점 혹은 총 가맹점의 성별 연령별 방문자수에 의한 광고 노출 횟수 및 광고 노출 시간으로 정산하는 방식이 가능하다.At this time, there are various methods of calculating the revenue, for example, a method of calculating the number of advertisement exposures and advertisement exposure time according to the number of visitors by gender and age of each affiliated store or total affiliated stores in each region or the increase or decrease in sales caused by advertisement exposure.

즉, 매출액 증감에 의하여 정산하는 방식의 경우는, 해당 가맹점에 광고 컨텐츠를 제공한 기간 동안 발생한 매출액의 증감을 연산하고, 광고단가를 적용하여 수익을 정산하는 방식이다.That is, in the case of the method of settlement based on the increase or decrease in sales, the increase or decrease in sales generated during the period in which advertisement contents are provided to the corresponding affiliated store is calculated, and the revenue is settled by applying the advertisement unit price.

이때, 수익 정산부(11)는 광고 수익을 보다 객관적으로 산출하기 위하여 광고 관리부(3) 및 가맹점 내에 설치된 단말기를 연동시킬 수 있다.In this case, the revenue settlement unit 11 may link the advertisement management unit 3 and the terminal installed in the affiliate store in order to more objectively calculate the advertisement revenue.

즉, 가맹점 내에 설치된 포스기, 카드결제기, 전자 금고 등의 단말기에 의하여 판매된 상품 종류 및 매출액을 파악할 수 있고, 광고 관리부(3)에 의하여 해당 광고 노출시간을 파악하여 서로 비교함으로써 구체적으로 해당 광고로 인한 매출액의 증감을 실시간으로 파악할 수 있다.That is, the type and sales of products sold by terminals such as POS machines, card payment machines, and electronic safes installed in affiliated stores can be identified, and the advertisement exposure time is identified by the advertisement management unit 3 and compared with each other to specifically correspond The increase or decrease in sales due to advertising can be grasped in real time.

방문자수로 정산하는 방식의 경우는, 가맹점을 방문한 고객을 성별, 연령별, 감정별로 분류하고 이때 노출되는 광고의 횟수 및 광고 노출 시간에 따른 광고단가를 적용함으로써 수익을 정산하는 방식이다.In the case of the method of calculating the number of visitors, the revenue is settled by classifying customers who have visited the affiliated store by gender, age, and emotion, and applying an advertisement unit price according to the number of times of advertisements and advertisement exposure time.

이와 같이 각 가맹점별로 광고 컨텐츠에 대한 단가를 연산하고, 광고 수익을 정산할 수 있다.In this way, it is possible to calculate a unit price for advertisement content for each affiliate store and to settle advertisement revenue.

이하, 본 발명의 바람직한 실시예에 따른 인공지능 기반의 얼굴인식 광고매칭 서비스 제공 시스템의 작동과정을 첨부된 도면에 의하여 더욱 상세하게 설명한다.Hereinafter, the operation process of the artificial intelligence-based face recognition advertisement matching service providing system according to a preferred embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

도 12 및 도 13에 도시된 바와 같이, 인공지능 기반의 얼굴인식 광고매칭 서비스 제공 시스템(1)에 의하여 얼굴을 인식하는 방법은, 얼굴 인식부(4)에 의하여 가맹점 내의 고객 또는 가맹점 밖의 보행자들을 촬영한 동영상으로부터 얼굴을 인식하고, 광고주로부터 광고 컨텐츠를 수집하고 카메라 및 시스템에 인식된 고객의 얼굴에 따라 적합한 광고를 매칭하여 광고 컨텐츠를 인출하여 표시하고, 광고 수익을 정산하는 순서로 진행된다.As shown in FIGS. 12 and 13 , the method of recognizing a face by the artificial intelligence-based face recognition advertisement matching service providing system 1 uses the face recognition unit 4 to detect customers in the affiliated store or pedestrians outside the affiliated store. Faces are recognized from the captured video, advertisement contents are collected from advertisers, and advertisement contents are retrieved and displayed by matching suitable advertisements according to the faces of customers recognized by the camera and system, and advertisement revenue is settled.

이때, 얼굴 인식부(4)에 하여 고객의 얼굴을 인식함에 있어서, 고객의 신상을 구체적으로 특정하지 않고, 다만 성별, 나이, 감정상태, GPS 기반의 지역만을 인식하여 분석하며, 분석된 얼굴 데이터는 DB화되지 않는다.At this time, when the face recognition unit 4 recognizes the customer's face, the customer's identity is not specifically specified, but only gender, age, emotional state, and GPS-based region are recognized and analyzed, and the analyzed face data is not converted to DB.

이러한 얼굴 인식 광고 매칭방법에 대하여 상세하게 설명하면,If we describe this face recognition advertisement matching method in detail,

카메라(2)에 의하여 동영상을 획득하는 단계(S10)와;acquiring a video by the camera 2 (S10);

카메라(2)를 통해 실시간 입력되는 영상의 얼굴 이미지를 얼굴 인식부(4)에 의하여 인공지능 기반으로 분석하여 하나 이상의 얼굴 데이터를 추출하고 백터화하여 함수처리하는 추출단계(S20)와;An extraction step (S20) of analyzing the face image of the video input in real time through the camera (2) based on artificial intelligence by the face recognition unit (4), extracting one or more face data, converting it into a vector, and performing a function processing (S20);

추출된 하나 이상의 얼굴 데이터에서 전처리부(17)에 의하여 반사광, 화각, 등의 Dust 및 노이즈 제거를 거치는 전처리 단계(S25)와; A pre-processing step (S25) of removing dust and noise such as reflected light, angle of view, etc. by the pre-processing unit 17 from the extracted one or more face data;

제어부(23)에서 일반모드로 설정된 경우, 추출된 하나 이상의 얼굴 데이터의 유사도를 판단함으로써 정의된 특징점 파라미터에 의하여 하나 이상의 얼굴 특징점을 동시에 분석하고 검출하는 특징 검출단계(S30)와;a feature detection step (S30) of simultaneously analyzing and detecting one or more facial feature points according to a feature point parameter defined by determining the similarity of one or more extracted facial data when the controller 23 is set to the normal mode;

전처리부(17)에서 검출된 하나 이상의 얼굴 이미지를 얼굴 판별부(21)에 의하여 인공지능 기반의 알고리즘에 의하여 성별, 나이, 감정상태에 따라 분류하여 출력하는 단계(S40)와;Classifying and outputting one or more face images detected by the preprocessor 17 according to gender, age, and emotional state by the face determination unit 21 according to an AI-based algorithm (S40);

광고 관리부(3)에 의하여 광고 컨텐츠를 수집하고 군집화된 고객의 얼굴에 따라 적합한 광고를 인출하여 표시하는 맞춤형 광고단계(S50)와; a customized advertisement step (S50) of collecting advertisement contents by the advertisement management unit (3) and fetching and displaying suitable advertisements according to the faces of the clustered customers;

광고컨텐츠에 대한 단가 및 수익을 정산하는 단계와; 그리고 Computing the unit price and revenue for the advertising content; And

광고컨텐츠를 출력하는 단계(S60)를 포함한다.and outputting advertisement content (S60).

이러한 광고 제공방법에 있어서,In this advertisement providing method,

동영상 획득단계(S10)에서는 카메라(2)에 의하여 동영상 등을 촬영함으로써 얼굴 영상을 실시간으로 획득한다.In the video acquisition step ( S10 ), a face image is acquired in real time by shooting a video by the camera 2 .

그리고, 얼굴 데이터 추출 단계(S20)에서는 실시간으로 입력되는 영상에서 얼굴 데이터를 추출한다.Then, in the face data extraction step (S20), face data is extracted from the image input in real time.

즉, 우선 얼굴 데이터를 도 7에 도시된 바와 같이, 사각형 또는 타원형의 모양으로 추출한다.That is, first, as shown in FIG. 7 , face data is extracted in a rectangular or oval shape.

그리고, 추출된 얼굴영역에서 P점(Peak Point)을 추출하고, 이 P점을 중심으로 눈,코,입,귀를 인식하게 된다.Then, a P point (Peak Point) is extracted from the extracted face area, and eyes, nose, mouth, and ears are recognized around this P point.

즉, 영상에서 물체를 추적하거나 인식할 때, 영상에서 주요 특징점(keypoint)을 추출하여 매칭하는 바, 이 경우 코너점(Corner point)을 추출하는 것이 중요하다.That is, when tracking or recognizing an object in an image, a keypoint is extracted from the image and matched. In this case, it is important to extract a corner point.

따라서, 임의의 P점이 코너점인지 여부를 판단하여야 하는 바, 아래와 같은 정에 의하여 판단한다.Therefore, it is necessary to determine whether an arbitrary P point is a corner point, and it is determined according to the following definition.

도 8에 도시된 바와 같이, 먼저 추출된 얼굴 데이터에서 임의의 픽셀을 선택한다. 이때 선택한 픽셀 P의 밝기는 Ip, threshold값은 t로 정의한다.As shown in FIG. 8 , an arbitrary pixel is first selected from the extracted face data. In this case, the brightness of the selected pixel P is defined as Ip, and the threshold value is defined as t.

그리고, P점을 중심으로 가상의 원을 형성하며, 이때 원의 반지름은 픽셀 3개 정도로 가정하고, 이 원에 접하는 16개 픽셀값을 추출한다. 물론 반지름의 크기를 적절하게 변경될 수 있다.Then, an imaginary circle is formed around the point P, and the radius of the circle is assumed to be about 3 pixels, and 16 pixel values tangent to the circle are extracted. Of course, the size of the radius can be changed appropriately.

그리고, 16개 픽셀로 이루어진 원의 내부에 Ip+t 보다 일정값 이상 밝은(>p+t) 픽셀들이 n개 이상 연속되어 있거나, 또는 Ip-t 보다 일정값 이상 어두운 (<p-t) 픽셀들이 n개 이상 연속되어 있으면 p를 코너점으로 판단한다.In addition, in a circle consisting of 16 pixels, there are n or more consecutive (>p+t) pixels that are brighter than Ip+t by a certain value, or there are n pixels that are darker than Ip-t by a certain value or more (<pt). If more than one is continuous, p is judged as a corner point.

예를 들면, 1번 및 9번 픽셀이 P보다 더 밝은지 여부를 먼저 연산하고, 5번 및 13번 픽셀을 연산한다. 만약 P가 코너라면 연산한 4개의 픽셀,즉 1,5,9,13번 픽셀중 적어도 3개는 IP+t 보다 더 밝거나 IP-t보다 더 어둡다.For example, it is first calculated whether pixels 1 and 9 are brighter than P, and then pixels 5 and 13 are calculated. If P is a corner, then at least 3 of the computed 4 pixels, i.e. pixels 1, 5, 9, 13, are brighter than IP+t or darker than IP-t.

이때, P를 중심으로 연속되는 픽셀의 수는 3개 뿐만 아니라, 4개, 9개, 12개 등 다양하게 변동하여 적용할 수 있다.In this case, the number of consecutive pixels centered on P may be varied and applied, such as not only 3, but also 4, 9, 12, etc. FIG.

그리고, 상기한 인식과정에 있어서, n의 수가 적은 경우, 예를 들면 12보다 적은 경우에는 P를 선택하려는 픽셀 후보 수가 적어서 많이 제거하지 못하는 문제점이 있다. 또한, 얼굴 이미지의 특징을 검출하는 경우 코너 모양의 분포 등에 의존적이므로 픽셀 선택이 최적이 아닐 수 있다. 그리고, 코너가 아니라고 판단된 픽셀들은 분석에서 제외된다. 또한, 코너 주위에 다중 특징이 검출될 수도 있어서 코너 판단이 어려운 경우도 있다.Further, in the above-described recognition process, when the number of n is small, for example, less than 12, there is a problem in that the number of pixel candidates for selecting P is small, so that many cannot be removed. In addition, when detecting a feature of a face image, the pixel selection may not be optimal because it depends on the distribution of corner shapes and the like. Also, pixels determined not to be corners are excluded from the analysis. In addition, multiple features may be detected around a corner, making corner determination difficult in some cases.

따라서, 이러한 단점을 보완하기 위하여 다음과 같은 과정을 거치게 된다.Therefore, in order to compensate for these shortcomings, the following process is performed.

즉, 머신 러닝 혹은 딥러닝에 의하여 코너점을 검출한다.That is, corner points are detected by machine learning or deep learning.

보다 상세하게 설명하면, 상기한 바와 같이 얼굴 이미지로부터 코너점을 검출하기 위한 과정을 동일하게 실행한다.In more detail, the same process for detecting corner points from the face image is performed as described above.

그리고, 검출된 모든 픽셀에 대해 픽셀 주위로 16개 픽셀을 벡터로 저장한다. Then, for all detected pixels, 16 pixels around the pixel are stored as a vector.

이때, 픽셀의 밝기값을 아래 수식과 같이 P보다 훨씬 밝은 경우, P보다 훨씬 어두운 경우, P와 유사한 경우의 3가지 값으로 분류한다. 그리고, 이를 이용하여 원주 상의 픽셀들의 밝기분포를 16차원의 터네리 백터(ternary)로 표현한다.At this time, the brightness value of the pixel is classified into three values: a case much brighter than P, a case much darker than P, and a case similar to P as shown in the following equation. And, using this, the brightness distribution of pixels on the circumference is expressed as a 16-dimensional ternary vector.

Figure 112020079001485-pat00003
Figure 112020079001485-pat00003

상기 수식에 새로운 불린변수(Boolean)를 Kp로 정의하는 바, Kp는 P가 코너이면 트루(True), 아니면 폴스(False)이다.A new Boolean variable in the above formula is defined as Kp, where Kp is True if P is a corner, and False otherwise.

따라서, 상기 수식에 Kp변수를 적용하여 의사결정 트리(decision tree)를 기반으로 처리한다.Therefore, by applying the Kp variable to the above formula, processing is performed based on a decision tree.

Kp의 엔트로피가 0이 될 때까지 상기 수식 Pd, Ps, Pb에 반복하여 적용한다.The above equations Pd, Ps, and Pb are repeatedly applied until the entropy of Kp becomes 0.

이와 같은 과정을 통하여 각 코너를 검출할 수 있는 의사결정트리가 생성된다.Through this process, a decision tree capable of detecting each corner is generated.

이때, 어떤 점 P가 꼭지점으로 인식되면 P와 인접한 주변 점들도 같이 꼭지점으로 검출되는 경우가 많다.In this case, when a certain point P is recognized as a vertex, P and neighboring points adjacent to P are often also detected as vertices.

따라서, 이 문제를 해결하기 위해 비 최대 억제(non-maximal suppression) 방법을 이용하여 후처리를 진행한다.Therefore, to solve this problem, post-processing is performed using a non-maximal suppression method.

비 최대 억제법은 인접한 여러 점들이 꼭지점으로 검출된 경우 그중 피크성이 극대인 점만을 남기고 나머지를 제거하는 방식이다.The non-maximum suppression method is a method in which, when several adjacent points are detected as vertices, only the point with the maximum peak is left and the rest is removed.

그리고, 결정트리에 의하여 P를 결정하는 방식은 꼭지점 여부를 온(On)/오프(Off) 방식으로 결정하게 되므로, 깊이(depth) 정도를 수치화하기 어려운 바, 다음과 같은 별도의 수치화 함수를 적용한다.In addition, since the method of determining P by the decision tree determines whether the vertex is an on/off method, it is difficult to quantify the depth, so the following separate quantification function is applied do.

Figure 112020079001485-pat00004
------식(2)
Figure 112020079001485-pat00004
------Equation (2)

상기 비 최대 억제법에 의하여 P점을 산출할 때, 결정트리를 통해 검출된 각각의, 코너점들을 상기 식(2)에 입력하여 V를 연산한다. When calculating the P point by the ratio maximum suppression method, V is calculated by inputting each of the corner points detected through the decision tree into Equation (2).

즉, V는 p와 이를 둘러싼 16개의 픽셀값의 차에 대한 절대값을 모두 합산한 값을 의미한다. 그리고, 근접한 2개의 p값에 대해 V를 연산하고, V값이 작은쪽을 버리는 방식으로 코너성이 극대인 점들을 파악한다.That is, V means the sum of all absolute values of the difference between p and 16 pixel values surrounding it. Then, points with maximum cornerity are identified by calculating V for two adjacent p values, and discarding the smaller V value.

이러한 방법으로 기준점들을 정의할 때 기본적으로 눈, 코 끝, 눈썹, 입 양끝, 귀 등의 형상 및 위치가 결정된다. 이런 점들은 개인마다 형태가 크게 다르고 주변 형태도 복잡해 각 개인을 구분하는데 유용하다. When defining the reference points in this way, the shape and position of the eyes, nose tip, eyebrows, both ends of the mouth, ears, etc. are basically determined. These points are useful for distinguishing each individual because the shape of each individual is very different and the surrounding shape is also complex.

그 외의 기준점들은 볼이나 이마의 한가운데 등에 위치시키는데 이런 점들은 개인마다의 특징은 별로 없지만 얼굴 전체 형상을 파악하기 위하여 필요하다.Other reference points are located on the cheeks or the middle of the forehead, etc. These points are not characteristic of each individual, but are necessary to grasp the overall shape of the face.

전처리 단계(S25)에서는 전처리부(17)에 의하여 얼굴 데이터에서 반사광, 화각, 등의 Dust 및 노이즈 제거, 보정의 전처리 단계를 진행한다.In the pre-processing step (S25), the pre-processing unit 17 performs a pre-processing step of removing and correcting dust and noise such as reflected light, angle of view, etc. from the face data.

그리고, 얼굴특징 검출단계(S25)에서는 이와 같이 P점들을 파악한 후, 도 6a 및 도 6b에 도시된 바와 같이, 얼굴의 위치, 크기, 비율을 찾는데 P점들을 세부 기준점들로서 사용하게 된다.Then, in the face feature detection step (S25), after identifying the P points as described above, the P points are used as detailed reference points to find the position, size , and ratio of the face as shown in FIGS. 6A and 6B .

즉, 무작위 순서로 각 기준점을 택해 위치를 조금씩 바꿔가며 얼굴 영상 이미지의 유사도를 올린다. 이 과정에서 focus를 1에서 5까지 점진적으로 올린다.That is, each reference point is selected in a random order and the position is slightly changed to increase the similarity of the face image image. In this process, gradually increase the focus from 1 to 5.

도 9a의 경우, 얼굴의 형상에 기준점들을 많이 분포시켰고 비교적 기준점의 수가 적다. 도 9b의 그래프들은 얼굴 안쪽에 기준점들이 비슷한 간격으로 다수 분포되어 있다. In the case of FIG. 9A, many reference points are distributed in the shape of the face, and the number of reference points is relatively small. In the graphs of FIG. 9B , a plurality of reference points are distributed at similar intervals on the inside of the face .

위의 과정에서 focus 1의 경우 앞에서 설정한 수치들을 그대로 쓴다면 8 픽셀이 위치 차이 벡터의 최대 크기가 될 것이다. 다만 training set이나 원하는 성능의 정도에 따라 wavelet의 방향, 주파수들은 사용자가 임의로 설정할 수 있으므로 step 1, 2에서의 픽셀 단위들도 그에 맞춰 조정을 하여 각각의 정의 된 Peak사이의 픽셀 간격에 의하여 얼굴의 특징점을 검출한다.In the case of focus 1 in the above process, if the previously set values are used as they are, 8 pixels will be the maximum size of the position difference vector. However, according to the training set or desired performance level, the direction and frequency of the wavelet can be set arbitrarily by the user, so the pixel units in steps 1 and 2 are also adjusted accordingly, and the face is adjusted according to the pixel interval between each defined peak. Detect feature points.

이와 같이 얼굴 특징 검출단계(S25)가 완료되면, 얼굴 판별 단계(S40)가 진행된다.When the facial feature detection step S25 is completed in this way, the face identification step S40 proceeds.

얼굴 판별 단계(S40)에서는 전처리부(17)에서 검출된 하나 이상의 얼굴 이미지를 얼굴 판별부(21)에 의하여 인공지능 기반으로 해당 얼굴을 특정하고, 성별, 나이, 감정상태에 따라 분류하게 된다.In the face identification step (S40), one or more face images detected by the preprocessor 17 are specified by the face identification unit 21 based on artificial intelligence and classified according to gender, age, and emotional state.

즉, 얼굴 판별부(21)는 얼굴의 형상을 분석함으로써 얼굴의 특징을 추출하여 다른 얼굴과 구분하게 된다. 이러한 얼굴 판별부(21)는 얼굴인식분석엔진이 탑재된 중앙처리장치(CPU)에 의하여 처리될 수 있다.That is, the face determination unit 21 extracts facial features by analyzing the shape of the face to distinguish it from other faces. The face determination unit 21 may be processed by a central processing unit (CPU) on which a face recognition analysis engine is mounted.

이러한 얼굴 판별부(21)에서는 얼굴의 형태 분석을 다양한 알고리즘을 사용할 수 있는 바, 예를 들면 딥러닝(Deep learning) 방식에 의하여 얼굴의 형상 등을 비교하여 그 유사도를 판단함으로써 형태을 분석하는 방식이다.In the face determination unit 21, various algorithms can be used to analyze the shape of the face, for example, by comparing the shape of the face by a deep learning method and determining the similarity, it is a method of analyzing the shape. .

즉, 얼굴 데이터의 형상 학습시 심층 신경망에서는 각 층마다 서로 다른 층위의 특징이 학습된다.That is, when learning the shape of face data, the deep neural network learns features of different layers for each layer.

즉, 낮은 층위의 특징은 단순하고 구체적인 특징이 학습되며 {예: 얼굴 데이터의 형상을 구성하는 형상}, 높은 층위의 특징은 더욱 복잡하고 추상적인 특징이 학습된다. {예: 코 높이, 눈썹형상, 눈매, 입꼬리}That is, simple and specific features are learned for low-level features, {eg, a shape composing the shape of face data}, and more complex and abstract features are learned for high-level features. {Example: nose height, eyebrow shape, eyes, corners of mouth}

이런 추상화 학습과정을 통해 심층 신경망이 고차원의 데이터를 이해하며, 이 과정에는 수 억, 수 십억 개의 계수가 관여하게 된다. (이 과정에서 비선형함수가 사용된다.)Through this abstraction learning process, the deep neural network understands high-dimensional data, and hundreds of millions or billions of coefficients are involved in this process. (A non-linear function is used in this process.)

또한, 심층 신경망은 데이터를 이용해 데이터의 잠재적인 구조(latent structures)를 파악할 수 있다. 즉, 얼굴 데이터의 윤곽, 코 높이, 눈매, 입술형상, 눈썹 형상, 이마 형상 등 잠재적인 구조를 파악할 수 있다. 이를 통해 데이터가 라벨링되어 있지 않아도 데이터간의 유사성을 효과적으로 파악할 수 있으며, 결과적으로 심층 신경망은 얼굴 데이터의 군집화에 효과적이다.In addition, deep neural networks can use the data to figure out the latent structures of the data. In other words, potential structures such as contour, nose height, eyes, lip shape, eyebrow shape, and forehead shape of the face data can be identified. Through this, similarity between data can be effectively identified even if the data is not labeled, and as a result, deep neural networks are effective for clustering face data.

예를 들어, 신경망을 이용해 대량의 얼굴 데이터를 입력받아 비슷한 얼굴 데이터끼리 모아서 분류할 수 있다.For example, a large amount of face data can be input using a neural network, and similar face data can be collected and classified.

심층 신경망의 마지막 층은 출력층이다. 출력층의 활성 함수는 로지스틱(logistic) 혹은 소프트 맥스(softmax)인 경우가 대부분이며 출력층에서는 최종적으로 특정 라벨의 확률을 구할 수 있다. 예를 들어 얼굴 데이터를 입력하였을 때 얼굴 윤곽이 상하로 긴지, 좌우로 긴지, 코의 높낮이, 눈꼬리의 처짐 등을 각각의 확률로 구할 수 있다.The last layer of a deep neural network is the output layer. In most cases, the activation function of the output layer is logistic or softmax, and the probability of a specific label can be finally obtained from the output layer. For example, when face data is input, whether the contour of the face is long vertically or horizontally, the height of the nose, the sagging of the corners of the eyes, etc. can be obtained with respective probabilities.

이러한 방식에 의하여 그리고 얼굴 데이터를 반복적으로 입력하여 학습을 진행한다. 만일 학습이 원활하게 진행되었다면 계수는 적절한 값으로 업데이트 되어 있을 것이고, 이 인공 신경망으로 각종 분류와 예측이 가능하다.In this way and by repeatedly inputting face data, learning proceeds. If the learning proceeds smoothly, the coefficients will be updated to appropriate values, and various classifications and predictions are possible with this artificial neural network.

학습 과정 내부에선 이러한 계수의 업데이트 과정이 반복적으로 일어난다.In the learning process, the updating process of these coefficients occurs repeatedly.

이러한 업데이트 과정을 통하여 인공 신경망은 입력된 얼굴 데이터들을 분류함으로써 성별, 나이, 감정상태에 따라 유사한 얼굴 데이터들을 군집화할 수 있다. 그리고, 군집화된 얼굴 데이터는 데이터 베이스(13)에 등록된다.Through this update process, the artificial neural network can group similar face data according to gender, age, and emotional state by classifying the input face data. Then, the clustered face data is registered in the database 13 .

이때, 데이터 베이스(13)에 등록되는 데이터는 고객의 신상을 파악할 수 있는 구체적인 데이터가 아니라, 성별, 나이, 감정, GPS 기반의 지역만을 인식할 수 있는 데이터를 의미한다.In this case, the data registered in the database 13 means data that can recognize only the gender, age, emotion, and GPS-based region, not specific data that can identify the customer.

한편, 본 발명의 다른 실시예로서, 신속 인식단계(S70)가 진행될 수 있다. 즉, 신속 인식단계(S70)는 얼굴 인식부(4)에서 추출된 얼굴 이미지에 대한 인식시간을 단축하기 위하여 얼굴 이미지의 일부만 검출한 후, 특정 얼굴이 매칭되지 않는 경우 나머지 검출하지 않은 얼굴 이미지를 추가로 검출하여 인식과정을 신속하게 진행한다.On the other hand, as another embodiment of the present invention, the rapid recognition step (S70) may proceed. That is, in the quick recognition step (S70), in order to shorten the recognition time for the face image extracted by the face recognition unit 4, only a part of the face image is detected, and if a specific face is not matched, the remaining undetected face image is detected. Further detection speeds up the recognition process.

즉, 제어부(23)에서 신속모드로 설정된 경우, 얼굴을 복수개의 영역으로 구분하여 단수개의 영역부터 순차적으로 특징을 검출하여 매칭하되, 특정 얼굴이 매칭되지 않는 경우에는 대칭적으로 배치된 영역을 제외한 다른 영역의 특징을 검출하여 매칭되는 얼굴 데이터를 비교함으로써 얼굴 인식을 신속하게 실시할 수 있다.That is, when the control unit 23 is set to the quick mode, a face is divided into a plurality of areas, and features are sequentially detected and matched from a single area, but when a specific face is not matched, the symmetrically arranged area is excluded. Face recognition can be quickly performed by detecting features of different regions and comparing matching face data.

이러한 신속 인식단계(S70)는, 도 14에 도시된 바와 같이, 제어부(23)에 의하여 일반모드를 신속모드로 변경 설정하는 제 1단계(S100)와; 얼굴 분할모듈(20)에 의하여 얼굴을 복수개의 짝수 영역으로 분할하는 제 2단계(S110)와; 얼굴 특징 검출부(19)에 의하여 단수개의 영역부터 순차적으로 얼굴 특징을 1차적으로 검출하는 제 3단계(S120)와; 매칭되지 않는 경우 대칭적으로 배치되지 않은 영역의 특징을 2차적으로 검출하는 제 4단계(S130)와; 제 4단계(S130)에서 매칭되지 않았을 경우 3차적으로 얼굴 전체의 특징을 검출하여 매칭하는 제 5단계(S140)를 포함한다.The quick recognition step (S70) includes, as shown in FIG. 14, a first step (S100) of changing and setting the normal mode to the quick mode by the control unit 23; a second step (S110) of dividing the face into a plurality of even regions by the face dividing module 20; a third step (S120) of firstly detecting facial features sequentially from a single region by the facial feature detection unit 19; a fourth step (S130) of secondarily detecting features of regions that are not symmetrically arranged if they are not matched; A fifth step (S140) of tertiarily detecting and matching the features of the entire face is included in the case of not being matched in the fourth step (S130).

보다 상세하게 설명하면, 제 1단계(S100)에서는 사용자가 얼굴 인식을 신속하게 진행할 필요가 있을 경우, 제어부(23)의 모드를 일반모드에서 신속모드로 전환함으로써 얼굴 인식을 신속하게 진행할 수 있다. More specifically, in the first step ( S100 ), when the user needs to quickly perform face recognition, the mode of the control unit 23 is switched from the normal mode to the quick mode, so that the face recognition can be performed quickly.

제 2단계(S110)에서는 얼굴 분할모듈(20)에 의하여 얼굴을 복수개의 영역으로 분할한다. 즉, 얼굴의 코를 중심으로 가로 및 세로선을 형성하여 복수개의 영역, 예를 들면 대칭 가능한 짝수개의 영역인 4구역으로 분할하고, 좌상단 영역에서 시계방향으로 제 1, 제2, 제3, 제4영역으로 설정한다.In the second step ( S110 ), the face is divided into a plurality of regions by the face dividing module 20 . That is, horizontal and vertical lines are formed around the nose of the face to divide into a plurality of regions, for example, 4 regions that are symmetrical even-numbered regions, and clockwise from the upper left region to the first, second, third, and fourth regions. set to the area.

제 3단계(S120)에서는 얼굴 특징 검출부(19)에 의하여 단수개의 영역부터 순차적으로 얼굴 특징을 1차적으로 검출한다. 즉, 제 1영역인 좌측 눈 부위의 특징을 먼저 검출한다. 그리고, 데이터베이스(13)에서 해당 영역과 매칭되는 부분이 있는지를 연산한다.In the third step (S120), facial features are primarily detected sequentially from a single region by the facial feature detection unit 19 . That is, the feature of the left eye region, which is the first region, is first detected. Then, it is calculated whether there is a part matching the corresponding area in the database 13 .

만약 매칭되는 부분이 없으면 제 4단계(S130)로서, 제 4영역, 즉 좌측 눈 부위의 바로 아래 영역의 특징을 검출하여 매칭되는 얼굴 이미지를 검색한다. If there is no matching part, in a fourth step ( S130 ), a matching face image is searched for by detecting the features of the fourth region, that is, the region immediately below the left eye region.

즉, 제 1영역과 대칭되는 제 2영역은 미러(Mirror) 기법에 의하여 특징을 처리할 수 있음으로 대칭되지 않는 제 4영역의 특징을 검출하는 것이 바람직하다.That is, since the feature of the second region that is symmetrical with the first region can be processed by a mirror technique, it is preferable to detect the feature of the fourth region that is not symmetrical.

그리고, 제 4영역에서도 검출되지 않는 경우에는 제 5단계(S140)로서 얼굴 전체 영역에 대한 검출을 실시한다.And, if it is not detected even in the fourth region, the entire face region is detected as a fifth step (S140).

이와 같이, 등록된 고객의 얼굴을 복수개의 영역으로 구분하여 단수개의 영역부터 순차적으로 특징을 검출하여 매칭하되, 특정 얼굴이 매칭되지 않는 경우에는 이미 얼굴 데이터셋을 통하여 학습된 인공지능 얼굴인식 알고리즘에 의하여 입력된 영상으로부터 얼굴 영역을 추출하고 이 추출된 얼굴 영역에서 남자 여자의 구분 및 연령 및 감정 상태를 분석함으로써 얼굴인식을 신속하게 실시할 수 있다.In this way, the registered customer's face is divided into a plurality of regions, and features are sequentially detected and matched from a single region. However, if a specific face is not matched, the face recognition algorithm already learned through the face dataset is applied. By extracting a face region from the image input by the user and analyzing the classification, age, and emotional state of men and women from the extracted face region, face recognition can be quickly performed.

그리고, 제 3단계(S120)에서, 이러한 제 1 내지 제 4영역에 대한 특징점 검출을 실시하기 전에, 얼굴의 특이 형상에 대한 특징을 먼저 실시하는 단계를 추가함으로써 인식 시간을 신속하게 단축할 수도 있다. 예를 들면, 얼굴의 일정 부분에 큰 점 혹은 흉터, 안면 비대칭 등의 특징이 있어서 얼굴 판별부(21)에 의하여 쉽게 검출할 수 있는 경우, 이러한 특징점을 우선적으로 처리함으로써 인식 시간을 단축할 수 있다.And, in the third step (S120), before performing the feature point detection for the first to fourth regions, the recognition time can be quickly shortened by adding the step of first performing the feature on the specific shape of the face. . For example, if a certain part of the face has features such as large dots, scars, facial asymmetry, etc., and can be easily detected by the face discrimination unit 21, the recognition time can be shortened by preferentially processing these feature points. .

이와 같이 얼굴을 인식하는 단계가 완료되면, 광고 관리부(3)에 의하여 광고 컨텐츠를 수집하고 군집화된 고객들에게서 얼구 데이터를 추출하고 이 추출된 얼굴데이터에서 성별 연령별 감정별로 얼굴을 분석함으로써 이 분석된 얼굴에 따라 적합한 광고를 인출하여 표시하는 맞춤형 광고단계(S50)가 진행된다.When the step of recognizing a face is completed in this way, the advertisement content is collected by the advertisement management unit 3, face data is extracted from the clustered customers, and the face is analyzed by gender, age, and emotion from the extracted face data. A customized advertisement step (S50) of fetching and displaying a suitable advertisement according to the above is performed.

보다 상세하게 설명하면,In more detail,

먼저 수집모듈(30)이 광고주로부터 온라인 혹은 오프라인으로 제공받은 광고 컨텐츠를 수집하고 저장한다. 이때, 광고주로부터 광고의 노출 대상에 대한 정보를 복합적인 방법으로 취득함으로써 광고 컨텐츠 매칭 알고리즘에 의하여 광고 컨텐츠를 검색할 수 있다.First, the collection module 30 collects and stores the advertisement content provided online or offline from the advertiser. In this case, by acquiring information on an advertisement exposure target from the advertiser in a complex way, the advertisement contents can be searched by the advertisement contents matching algorithm.

광고 컨텐츠가 수집되면, 분류모듈(32)이 수집된 광고 컨텐츠를 특징에 따라 분류한다. 예를 들면, 건강관련 광고, 스포츠 관련, 헬스 관련, 재테크 관련 광고 등으로 분류한다.When the advertisement contents are collected, the classification module 32 classifies the collected advertisement contents according to characteristics. For example, it is classified into health-related advertisements, sports-related, health-related, and financial-related advertisements.

그리고, 탐색모듈(34)은 얼굴 특징 검출부(19)에 의하여 검출된 얼굴 특징에 대응되는 광고 컨텐츠를 선택하기 위한 경로를 탐색한다.Then, the search module 34 searches a path for selecting advertisement content corresponding to the facial feature detected by the facial feature detection unit 19 .

경로가 탐색되면 추천모듈(36)은 경로가 탐색된 광고 컨텐츠를 분류된 얼굴 유형에 따라 데이터 베이스에서 광고 컨텐츠를 인출하여 추천한다. 예를 들면, 나이에 따라 적합한 광고 컨텐츠를 인출하는 바, 나이가 적은 어린층의 경우, 아동용 광고 컨텐츠를 인출하고, 노년층의 경우 건강 관련 컨텐츠를 인출하는 방식이다.When the route is found, the recommendation module 36 fetches the advertising content from the database according to the classified face type and recommends the searched advertising content. For example, a bar suitable for retrieving advertisement contents according to age is a method of retrieving advertisement contents for children in the case of a younger group, and fetching health-related contents in the case of an elderly group.

또한, 청년층의 경우 헬스 관련 광고 컨테츠를 인출하거나, 장년층의 경우 재테크 관련 컨텐츠를 인출하게 된다.In addition, in the case of young people, health-related advertising content is withdrawn, and in the case of the elderly, financial-related content is withdrawn.

그리고, 성별에 따라서도 광고 컨텐츠를 인출할 수 있는 바, 남성의 경우는 스포츠 관련 컨텐츠를 인출하고, 여성의 경우는 화장품 관련 컨텐츠를 인출하는 방식이다.In addition, advertisement contents can be retrieved according to gender. In the case of men, sports-related contents are retrieved, and in the case of women, cosmetic-related contents are retrieved.

또한, 감정에 따라서 광고 컨텐츠를 인출할 수 있는 바, 기쁨상태인 경우에는 여행 컨텐츠를 인출하고, 슬픔인 경우에는 주류 관련 컨텐츠를 인출하며, 성냄상태인 경우에는 화를 추스릴 수 있는 음원이나 게임, 여행 관련 광고 컨텐츠를 인출하고, 우울한 상태인 경우에는 여행이나 스포츠와 같은 밝은 컨텐츠를 인출하게 된다.In addition, advertisement contents can be retrieved according to emotions. In the case of joy, travel contents are retrieved, in case of sadness, alcohol-related contents are retrieved, and in the case of anger, sound sources or games that can control anger. , travel-related advertisement content is fetched, and in a depressed state, bright content such as travel or sports is fetched.

이와 같이 추천모듈(36)은 인식된 얼굴 데이터에 따라 적절한 광고 컨텐츠를 선택하여 인출하게 된다.In this way, the recommendation module 36 selects and retrieves appropriate advertisement content according to the recognized face data.

그리고, 표시모듈(38)은 추천된 광고 컨텐츠를 광고 표시창에 표시함으로써 광고를 진행할 수 있다. Then, the display module 38 may proceed with the advertisement by displaying the recommended advertisement content on the advertisement display window.

이때, 광고 표시창(32)은 다양한 방식의 광고 표시창(32)을 포함하며, 예를 들면 가맹점에 설치된 TV, 엘이디(LED) 전광판 등이 가능하다.At this time, the advertisement display window 32 includes various types of advertisement display windows 32 , and for example, a TV installed in an affiliated store, an LED display board, etc. are possible.

한편, 도 12에 도시된 바와 같이, 가맹점별로 단가 연산부(9)에 의하여 고객 정보를 분석하여 광고 단가를 연산하는 단계(S70)와; 수익 정산부(11)에 의하여 광고 컨텐츠에 노출 횟수 및 시간에 따른 광고 노출, 광고 노출로 인한 매출액 증감을 연산하여 수익을 정산하는 단계(S80)가 추가로 진행될 수 있다.On the other hand, as shown in FIG. 12, analyzing customer information by the unit price calculating unit 9 for each affiliate store to calculate an advertisement unit price (S70); The step (S80) of calculating the revenue by calculating the sales increase or decrease due to advertisement exposure and advertisement exposure according to the number and time of exposure to advertisement content by the revenue settlement unit 11 may be additionally performed.

단가 연산단계(S70)에서는 단가 연산부(9)에 의하여 가맹점별로 쌓인 고객 정보를 분석하여 광고 단가를 연산하게 된다.In the unit price calculation step (S70), the unit price calculation unit 9 analyzes customer information accumulated for each affiliate store to calculate the advertisement unit price.

이러한 단가 연산부(9)는 가맹점을 방문한 고객을 성별, 연령별, 감정별로 분류하고 각 방문자수 및 머무른 시간 등에 의하여 광고단가를 산출한다.The unit price calculating unit 9 classifies customers who have visited the affiliated store by gender, age, and emotion, and calculates an advertisement unit price based on the number of visitors and the time they stay.

이때, 방문자수를 일별, 주간, 월별로 분석하여 광고단가를 산출할 수 있다.In this case, the number of visitors may be analyzed by day, week, and month to calculate the advertisement unit price.

이러한 단가 연산단계(S70)가 완료되면, 수익 정산단계(S80)가 진행된다.When this unit price calculation step (S70) is completed, the revenue settlement step (S80) proceeds.

수익 정산단계(S80)에서는 수익 정산부(11)에 의하여 광고 컨텐츠 노출의 횟수 및 노출 시간, 광고 노출에 따른 매출액 증감을 연산하여 수익을 정산하게 된다.In the revenue settlement step (S80), the revenue settlement unit 11 calculates the number and exposure time of advertisement content exposure, and sales increase/decrease according to advertisement exposure to settle the revenue.

이때, 수익을 정산하는 방식은 다양한 바, 예를 들면 광고 노출 횟수, 광고 노출 시간 및 광고 노출에 따른 매출액 증감 혹은 방문자수로 정산하는 방식이 가능하다.In this case, there are various methods of calculating the revenue, for example, a method of adjusting the number of advertisement exposures, advertisement exposure time, and sales increase or decrease according to advertisement exposure or the number of visitors is possible.

즉, 매출액 증감에 의하여 정산하는 방식의 경우는, 해당 가맹점에 광고 컨텐츠를 제공한 기간 동안 발생한 매출액의 증감을 연산하고, 광고 단가를 적용하여 수익을 정산하는 방식이다.That is, in the case of the method of settlement by the increase or decrease in sales, the increase or decrease in sales generated during the period in which advertisement contents are provided to the corresponding affiliated store is calculated, and the revenue is settled by applying the advertisement unit price.

방문자수로 정산하는 방식의 경우는, 지역별 가맹점, 플랫폼에 연결된 총 가맹점을 방문한 고객을 성별, 연령별, 감정별로 분류하여 광고 노출 시간 및 횟수에 따른 빅데이터 분석에 따라 광고 단가를 적용함으로써 수익을 정산하는 방식이다.In the case of the method of calculating the number of visitors, revenue is settled by classifying customers who visited regional franchisees and total affiliates connected to the platform by gender, age, and emotion, and applying the advertising unit price according to big data analysis according to the advertisement exposure time and number of times. method.

이와 같이 각 가맹점별로 광고 컨텐츠에 대한 단가를 연산하고, 광고 수익을 정산할 수 있다.In this way, it is possible to calculate a unit price for advertisement content for each affiliate store and to settle advertisement revenue.

Claims (11)

가맹점에 배치되어 고객의 얼굴을 촬영하여 이미지를 얻는 카메라(2)와;
카메라(2)로부터 얻어진 얼굴 이미지를 인공지능 기반으로 분석하여 얼굴을 인식하되, 고객의 신상을 구체적으로 특정하지 않고, DB화 하지도 않은 상태에서 성별, 나이, 감정상태, GPS 기반의 지역만을 인식하여 분석하는 얼굴 인식부(4)와;
광고 컨텐츠와 인식된 고객의 얼굴을 인공지능 기반으로 매칭하여 광고를 인출하는 광고 관리부(3)와;
광고 관리부(3)에서 전송된 광고를 표시하는 표시부(7)와;
가맹점별로 고객의 시간대별, 일별, 주별, 월별의 고객의 성별 연령별 이동량 정보를 분석하여 광고 단가를 연산하는 단가 연산부(9)와;
광고 컨텐츠의 노출 시간 및 노출 효과 분석 및 광고로 인한 매출액의 변화 분석에 의한 광고 수익을 연산하여 정산하는 수익 정산부(11)와; 그리고
광고주로부터 수집된 광고 컨텐츠 및 각 가맹점의 고객에 대한 데이터가 저장되는 빅데이터 DB부(13)를 포함하고,
얼굴 인식부(4)는, 얼굴을 다수개의 영역으로 분할하는 얼굴 분할모듈(20)과; 픽셀의 형상을 인식하는 로컬 형상분석모듈(Local feature analysis;22)과; 픽셀의 밝기에 대한 벡터를 연산하는 백터 연산모듈(Vector feature analysis;24)과; 얼굴의 표면에 대한 질감을 분석하는 모듈(Surface texture analysis;26)을 포함하고,
얼굴 인식부(4)는, 실시간으로 입력되는 영상에서 얼굴 영역을 다수개의 사각형 또는 타원형의 모양으로 구획하고,
추출된 얼굴영역에서 P점(Peak Point)을 추출하고, 이 P점을 중심으로 눈,코,입,귀를 인식하는 바,
P점이 코너점인지 여부를 판단할 때, P점을 중심으로 소정 픽셀 반지름인 가상의 원을 형성하고, 이 원에 접하는 픽셀값에 의하여 판단하는 바,
P점 보다 일정값 이상 밝은(>P+t) 픽셀들이 n개 이상 연속되어 있거나 또는 일정값 이상 어두운 (<P-t) 픽셀들이 n개 이상 연속되어 있으면 P점을 코너점으로 판단하고,
P점이 꼭지점인지 여부를 판단하기 위해 결정트리(decision tree) 방식에 의하여 판단하는 바,
픽셀의 밝기값을 P점 보다 훨씬 밝은 경우, P점 보다 훨씬 어두운 경우, P점과 유사한 경우의 3가지 값으로 분류하고, 원주 상의 픽셀들의 밝기분포를 16차원의 터네리 백터(ternary)로 표현한 후, 이 백터를 결정트리에 입력하여 P점 여부를 판단하고,
비 최대 억제(non-maximal suppression) 방법을 이용하여 처리함으로써 꼭지점을 인식하고,
결정트리에 의하여 P점을 결정하는 방식은 꼭지점 여부를 온(On)/오프(Off) 방식으로 결정하게 되므로, 아래의 식에 의하여 함수를 적용하며,
비 최대 억제법에 의하여 P점을 산출할 때, 결정트리를 통해 검출된 각각의, 코너점들을 식(1)에 입력하여 V를 연산한 후, 인접한 코너점들 중 해당 P점보다 높은 V값을 갖는 코너점을 순차적으로 제거하는 방식으로 코너성이 극대인 점들을 파악하는 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
Figure 112021028333512-pat00021
------식 1
{V: 스코어 함수, x: 픽셀값, P: 코너점}
a camera (2) disposed in the affiliated store to obtain an image by photographing a customer's face;
The face image obtained from the camera (2) is analyzed based on artificial intelligence to recognize the face, but without specifying the customer’s identity or creating a database, only the gender, age, emotional state, and GPS-based region are recognized. a face recognition unit 4 to analyze;
an advertisement management unit 3 for retrieving advertisements by matching advertisement contents with a recognized customer's face based on artificial intelligence;
a display unit 7 for displaying advertisements transmitted from the advertisement management unit 3;
a unit price calculation unit 9 for calculating an advertisement unit price by analyzing the movement amount information of the customer by time, day, week, and month of the customer for each affiliate store;
a revenue settlement unit 11 for calculating and setting advertisement revenue by analysis of exposure time and exposure effect of advertisement content and analysis of changes in sales due to advertisements; And
and a big data DB unit 13 in which advertisement contents collected from advertisers and data about customers of each affiliate are stored,
The face recognition unit 4 includes: a face dividing module 20 for dividing a face into a plurality of regions; a local feature analysis module (22) for recognizing the shape of a pixel; a vector feature analysis module (24) for calculating a vector for the brightness of a pixel; Includes a module for analyzing the texture of the surface of the face (Surface texture analysis; 26),
The face recognition unit 4 divides the face region into a plurality of square or oval shapes in the image input in real time,
A P point (Peak Point) is extracted from the extracted face area, and eyes, nose, mouth, and ears are recognized around this P point,
When determining whether the P point is a corner point, an imaginary circle having a predetermined pixel radius is formed around the P point, and it is determined by the pixel value in contact with the circle,
If n or more pixels that are brighter (>P+t) by more than a certain value than P point are consecutive, or if there are n or more consecutive pixels that are dark (<Pt) more than a certain value, point P is determined as a corner point,
It is judged by a decision tree method to determine whether the point P is a vertex,
When the brightness value of a pixel is much brighter than P point, much darker than P point, and similar to P point, it is classified into three values, and the brightness distribution of pixels on the circumference is expressed as a 16-dimensional ternary vector. After that, input this vector into the decision tree to determine whether the P point is
Recognize vertices by processing using a non-maximal suppression method,
In the method of determining the P point by the decision tree, the vertex is determined by the On/Off method, so the function is applied by the following formula,
When calculating the P point by the non-maximum suppression method, each corner point detected through the decision tree is input into Equation (1) to calculate V, and then V value higher than the corresponding P point among adjacent corner points An advertisement content sharing service system (1) capable of distributing advertisement revenue and face recognition advertisement matching based on artificial intelligence that identifies points with maximum cornerity in a manner that sequentially removes corner points with
Figure 112021028333512-pat00021
------Equation 1
{V: score function, x: pixel value, P: corner point}
삭제delete 삭제delete 삭제delete 제 1항에 있어서,
광고 관리부(3)는 광고 컨텐츠를 수집하고 저장하는 수집모듈(30)과; 수집된 광고 컨텐츠를 분류하는 분류모듈(32)과; 검출된 얼굴 특징에 대응되는 광고 컨텐츠를 선택하기 위한 경로를 탐색하는 탐색모듈(34)과; 탐색된 광고 컨텐츠를 인공지능에 의하여 추천하는 추천모듈(36)과; 추천된 광고 컨텐츠를 표시하는 표시모듈(38)과; 사용자 정보, 가맹점 정보, 디바이스 정보, 광고 컨텐츠 정보, 고객의 메타데이터 정보를 관리하는 관리모듈(40)을 포함하는 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
The method of claim 1,
The advertisement management unit 3 includes: a collection module 30 for collecting and storing advertisement contents; a classification module 32 for classifying the collected advertisement contents; a search module 34 for searching a path for selecting advertisement content corresponding to the detected facial feature; a recommendation module 36 for recommending searched advertisement contents by artificial intelligence; a display module 38 for displaying recommended advertisement contents; An artificial intelligence-based face recognition advertisement matching including a management module 40 that manages user information, affiliate information, device information, advertisement content information, and customer metadata information, and advertisement contents sharing service system capable of distributing advertisement revenue (One).
제 5항에 있어서,
광고 관리부(3)는 판단모듈(43)을 추가로 구비함으로써 분류된 얼굴 유형의 비율을 연산하고, 비율이 일정 범위 이내라면 해당 광고 컨텐츠 모두를 교대로 표시하는 인공지능 기반의 얼굴인식 광고 매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
6. The method of claim 5,
The advertisement management unit 3 additionally includes a determination module 43 to calculate the ratio of the classified face types, and if the ratio is within a certain range, artificial intelligence-based face recognition advertisement matching and displaying all of the corresponding advertisement contents alternately Advertisement content sharing service system (1) capable of distributing advertising revenue.
제 5항에 있어서,
광고 관리부(3)의 추천모듈(36)은, 1차로는 고객의 얼굴 데이터를 성별, 감정별, 지역별로 분류하여 해당 광고 컨텐츠를 표시하고, 2차로는 매출효과가 좋은 광고 컨텐츠를 추천하고, 3차로는 시간 데이터를 연동시켜서 아침, 저녁으로 구분하거나, 4계절로 구분하여 해당 시간에 광고 컨텐츠를 추천하는 인공지능 기반의 얼굴인식 광고 매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
6. The method of claim 5,
The recommendation module 36 of the advertisement management unit 3 firstly classifies the customer's face data by gender, emotion, and region to display the corresponding advertisement contents, and secondly recommends advertisement contents with good sales effect, In the third phase, an advertisement content sharing service system that can distribute advertisement revenue and artificial intelligence-based face recognition advertisement matching that recommends advertisement contents at the time by linking time data into morning and evening or by dividing into 4 seasons ( One).
제 1항에 있어서,
제어부(23)는 일반모드를 신속모드로 변경 설정하여 얼굴 인식을 실시할 수 있는 바, 얼굴 분할모듈(20)에 의하여 얼굴을 1 내지 4개의 영역으로 분할하고, 얼굴 특징 검출부(19)에 의하여 단수개의 영역부터 순차적으로 얼굴 특징을 1차적으로 검출하고, 매칭되지 않는 경우 대칭적으로 배치되지 않은 영역의 특징을 2차적으로 검출하며, 매칭되지 않았을 경우 3차적으로 얼굴 전체의 특징을 검출하여 남녀의 분석과 연령을 분석하여 매칭하는 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
The method of claim 1,
The control unit 23 can perform face recognition by changing the normal mode to the quick mode and dividing the face into 1 to 4 regions by the face dividing module 20, and using the facial feature detecting unit 19 to perform face recognition. It first detects facial features sequentially from a single area, if they do not match, it detects the features of areas that are not symmetrically arranged, and if they do not match, tertiarily detects the features of the entire face. An advertisement content sharing service system (1) that can distribute artificial intelligence-based face recognition advertisement matching and advertisement revenue by analyzing and matching age and age.
제 8항에 있어서,
제어부(23)는 제 1 내지 제 4영역에 대한 특징점 검출을 실시하기 전에, 얼굴의 특이 형상에 대한 특징을 먼저 실시함으로써 인식 시간을 단축할 수 있는 인공지능 기반의 얼굴인식 광고매칭 및 광고 수익을 분배할 수 있는 광고컨텐츠 공유 서비스 시스템(1).
9. The method of claim 8,
The control unit 23 performs face recognition advertisement matching and advertisement revenue based on artificial intelligence that can shorten the recognition time by first performing the characteristics of the specific shape of the face before performing the feature point detection for the first to fourth regions. Distributable advertising content sharing service system (1).
삭제delete 삭제delete
KR1020200093848A 2020-07-28 2020-07-28 Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies KR102261336B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200093848A KR102261336B1 (en) 2020-07-28 2020-07-28 Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200093848A KR102261336B1 (en) 2020-07-28 2020-07-28 Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies

Publications (1)

Publication Number Publication Date
KR102261336B1 true KR102261336B1 (en) 2021-06-07

Family

ID=76374016

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200093848A KR102261336B1 (en) 2020-07-28 2020-07-28 Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies

Country Status (1)

Country Link
KR (1) KR102261336B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115034813A (en) * 2022-06-01 2022-09-09 中通服慧展科技有限公司 Advertisement display system integrating multiple communication functions
CN116863864A (en) * 2023-07-11 2023-10-10 浙江雨林电子科技有限公司 LED lamp control method and system based on Internet of things
WO2024114137A1 (en) * 2022-11-30 2024-06-06 荣耀终端有限公司 Crowd identification method, device and storage medium

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006351041A (en) * 2006-09-21 2006-12-28 Mitsubishi Electric Corp Service provision system
KR20090083643A (en) 2008-01-30 2009-08-04 에스케이 텔레콤주식회사 Method, system and apparatus for providing advertisement service by using private broadcasting
KR20120020006A (en) * 2010-08-27 2012-03-07 엘지전자 주식회사 Method for displaying graphical user interface and portable terminal thereof
KR20120076509A (en) * 2010-11-29 2012-07-09 대진대학교 산학협력단 System and method for shopping navigation service
KR20120139251A (en) * 2011-06-17 2012-12-27 한국항공대학교산학협력단 Smart digital signage using customer recognition technologies and advertisment method using the same
KR101314293B1 (en) * 2012-08-27 2013-10-02 재단법인대구경북과학기술원 Face recognition system robust to illumination change
KR20130136557A (en) * 2011-04-11 2013-12-12 인텔 코오퍼레이션 Personalized advertisement selection system and method
JP2015055924A (en) * 2013-09-10 2015-03-23 株式会社セオン In-store information distribution device, in-store information distribution method and in-store information distribution program
US20160379225A1 (en) * 2015-06-24 2016-12-29 Intel Corporation Emotional engagement detector
KR20180037419A (en) * 2016-10-04 2018-04-12 재단법인대구경북과학기술원 Apparatus for age and gender estimation using region-sift and discriminant svm classifier and method thereof
KR102097781B1 (en) * 2013-09-06 2020-05-29 에스케이 텔레콤주식회사 Apparatus and Method for Providing Object Information

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006351041A (en) * 2006-09-21 2006-12-28 Mitsubishi Electric Corp Service provision system
KR20090083643A (en) 2008-01-30 2009-08-04 에스케이 텔레콤주식회사 Method, system and apparatus for providing advertisement service by using private broadcasting
KR20120020006A (en) * 2010-08-27 2012-03-07 엘지전자 주식회사 Method for displaying graphical user interface and portable terminal thereof
KR20120076509A (en) * 2010-11-29 2012-07-09 대진대학교 산학협력단 System and method for shopping navigation service
KR20130136557A (en) * 2011-04-11 2013-12-12 인텔 코오퍼레이션 Personalized advertisement selection system and method
KR20120139251A (en) * 2011-06-17 2012-12-27 한국항공대학교산학협력단 Smart digital signage using customer recognition technologies and advertisment method using the same
KR101314293B1 (en) * 2012-08-27 2013-10-02 재단법인대구경북과학기술원 Face recognition system robust to illumination change
KR102097781B1 (en) * 2013-09-06 2020-05-29 에스케이 텔레콤주식회사 Apparatus and Method for Providing Object Information
JP2015055924A (en) * 2013-09-10 2015-03-23 株式会社セオン In-store information distribution device, in-store information distribution method and in-store information distribution program
US20160379225A1 (en) * 2015-06-24 2016-12-29 Intel Corporation Emotional engagement detector
KR20180037419A (en) * 2016-10-04 2018-04-12 재단법인대구경북과학기술원 Apparatus for age and gender estimation using region-sift and discriminant svm classifier and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115034813A (en) * 2022-06-01 2022-09-09 中通服慧展科技有限公司 Advertisement display system integrating multiple communication functions
WO2024114137A1 (en) * 2022-11-30 2024-06-06 荣耀终端有限公司 Crowd identification method, device and storage medium
CN116863864A (en) * 2023-07-11 2023-10-10 浙江雨林电子科技有限公司 LED lamp control method and system based on Internet of things
CN116863864B (en) * 2023-07-11 2024-03-22 浙江雨林电子科技有限公司 LED lamp control method and system based on Internet of things

Similar Documents

Publication Publication Date Title
KR102261336B1 (en) Service systems for advertisement contents and revenue sharing that can match advertisement contents by facial recognition based on artificial intelligence technologies
Jain et al. Hybrid deep neural networks for face emotion recognition
Wang et al. Deep metric learning for crowdedness regression
JP6474919B2 (en) Congestion status monitoring system and congestion status monitoring method
US20170330029A1 (en) Computer based convolutional processing for image analysis
KR102191044B1 (en) Advertising systems that are provided through contents analytics and recommendation based on artificial intelligence facial recognition technology
CN103493068B (en) Personalized advertisement selects system and method
JP6267861B2 (en) Usage measurement techniques and systems for interactive advertising
CN111209810A (en) Bounding box segmentation supervision deep neural network architecture for accurately detecting pedestrians in real time in visible light and infrared images
AU2016266493A1 (en) Method and system for facial recognition
CN108830237B (en) Facial expression recognition method
CN103098079A (en) Personalized program selection system and method
US11580648B2 (en) System and method for visually tracking persons and imputing demographic and sentiment data
Farinella et al. Face re-identification for digital signage applications
Micu et al. Assessing an on-site customer profiling and hyper-personalization system prototype based on a deep learning approach
CN113766330A (en) Method and device for generating recommendation information based on video
JP6825613B2 (en) Information processing method, program, information processing device and trained model generation method
JP2022042014A (en) Control method, program, information processing device, and information processing system
Yu et al. AI-based targeted advertising system
Ijjina et al. Deep learning based approach to detect customer age, gender and expression in surveillance video
Rakesh et al. Moving object detection using modified GMM based background subtraction
JP2023066306A (en) Advertisement evaluation system
Priadana et al. An efficient face gender detector on a cpu with multi-perspective convolution
JP6988975B2 (en) Information processing methods, programs and information processing equipment
Pavlov et al. Application for video analysis based on machine learning and computer vision algorithms

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant