KR102493790B1 - Artificial intelligence-based place-linked facial recognition information generation method, device and system - Google Patents

Artificial intelligence-based place-linked facial recognition information generation method, device and system Download PDF

Info

Publication number
KR102493790B1
KR102493790B1 KR1020220146816A KR20220146816A KR102493790B1 KR 102493790 B1 KR102493790 B1 KR 102493790B1 KR 1020220146816 A KR1020220146816 A KR 1020220146816A KR 20220146816 A KR20220146816 A KR 20220146816A KR 102493790 B1 KR102493790 B1 KR 102493790B1
Authority
KR
South Korea
Prior art keywords
emotion
data
image
personal
recommended content
Prior art date
Application number
KR1020220146816A
Other languages
Korean (ko)
Inventor
이진욱
Original Assignee
프랭크엑스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 프랭크엑스 주식회사 filed Critical 프랭크엑스 주식회사
Priority to KR1020220146816A priority Critical patent/KR102493790B1/en
Application granted granted Critical
Publication of KR102493790B1 publication Critical patent/KR102493790B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F9/00Details other than those peculiar to special kinds or types of apparatus
    • G07F9/02Devices for alarm or indication, e.g. when empty; Advertising arrangements in coin-freed apparatus
    • G07F9/023Arrangements for display, data presentation or advertising
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01WMETEOROLOGY
    • G01W2203/00Real-time site-specific personalized weather information, e.g. nowcasting

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Accounting & Taxation (AREA)
  • Cardiology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Child & Adolescent Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Physiology (AREA)
  • Educational Technology (AREA)
  • Finance (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

According to one embodiment, a method for generating artificial intelligence-based place-linked face recognition information comprises the steps of: taking an image with an image recognition device installed in a space (hereinafter referred to as 'designated space') where a plurality of people move; recognizing the plurality of people from the taken image; collecting predetermined behavior data from terminal devices of the plurality of people; simultaneously identifying emotional states (hereinafter referred to as 'group emotion data') of the plurality of recognized people; collecting current weather data; selecting recommendation content corresponding to the designated space based on the behavior data, the group emotion data, and the current weather data; and recommending the recommendation content regarding the designated space. According to the present invention, an emotion model is generated by considering characteristics of a space where a plurality of people moves so that the accuracy in identifying emotion can be improved.

Description

인공지능 기반 장소 연계 안면 인식 정보 생성 방법, 장치 및 시스템{ARTIFICIAL INTELLIGENCE-BASED PLACE-LINKED FACIAL RECOGNITION INFORMATION GENERATION METHOD, DEVICE AND SYSTEM}Artificial intelligence-based place-linked facial recognition information generation method, apparatus and system

아래 실시예들은 인공지능 기반 장소 연계 안면 인식 정보 생성 방법, 장치 및 시스템에 관한 것으로, 서점, 백화점 등 다수의 사람이 유동하는 공간에서 사람들의 표정이나 제스처 등을 기반으로 대중의 감정을 파악하고, 이를 기반으로 큐레이팅된 컨텐츠를 추천하는 기술에 관한 것이다.The following embodiments relate to a method, apparatus, and system for generating face recognition information linked to an artificial intelligence-based place, and to identify public emotions based on people's expressions or gestures in a space where a large number of people flow, such as bookstores and department stores, Based on this, it relates to a technology for recommending curated content.

고객들이 필요로하는 컨텐츠(도서, 영화, 공연, 상품 등)를 큐레이팅 하는 기술에 대한 관심이 크게 증가하고 있다.Interest in the technology of curating the contents (books, movies, performances, products, etc.) that customers need is greatly increasing.

특히, 서점이나 백화점을 유동하는 다수의 사람들에 대해 소정의 큐레이션을 통한 컨텐츠 추천 기술에 대한 수요가 있다.In particular, there is a demand for content recommendation technology through predetermined curation for a large number of people who move through bookstores or department stores.

특허문헌 1과 같은 종래 기술에는 회원(개인) 한 명에 대해 맞춤형 컨텐츠를 추천하는 형태의 기술이 제안되고 있다.In the prior art such as Patent Document 1, a technique of recommending customized content for one member (individual) has been proposed.

다만, 상기와 같은 종래 기술에서는 고객 한 명(회원) 각각에 대한 큐레이션을 제공하기 때문에, 다수의 고객이 유동하는 공간에서의 마케팅을 위한 큐레이션을 제공하는 것은 불가능하다는 한계점이 있었다.However, in the prior art as described above, since curation is provided for each customer (member), there is a limit in that it is impossible to provide curation for marketing in a space where a large number of customers flow.

KRKR 10-2232957 10-2232957 BB KRKR 10-2372017 10-2372017 BB KRKR 10-2371119 10-2371119 BB

본 발명의 일실시예가 해결하고자 하는 과제는, 서점이나 백화점 등 다수의 사람들이 유동하는 지정된 공간에 대해, 다수의 사람들의 감정을 파악하고 이를 날씨 등 다른 데이터와 결합함으로써 해당 공간에서 추천할 컨텐츠를 큐레이팅하는, 인공지능 기반 장소 연계 안면 인식 정보 생성 방법, 장치 및 시스템을 제공하는 것이다.The problem to be solved by an embodiment of the present invention is to identify the emotions of a large number of people in a designated space where a large number of people flow, such as a bookstore or department store, and combine them with other data such as weather to create content to be recommended in that space. It is to provide a method, device, and system for generating face recognition information based on artificial intelligence based place that curates.

일실시예에 따르면, 다수의 사람이 유동하는 공간(이하, '지정공간'이라 함)에 설치되는 영상인식장치로 영상을 촬영하는 단계; 촬영된 영상으로부터 다수의 사람을 인식하는 단계; 상기 다수의 사람의 단말장치로부터 소정의 행동데이터를 수집하는 단계; 인식된 다수의 사람의 감정 상태(이하, '단체감정데이터'라 함)를 동시에 파악하는 단계; 현재 날씨데이터를 수집하는 단계; 상기 행동데이터, 상기 단체감정데이터 및 현재 날씨데이터를 기반으로, 상기 지정공간에 대응되는 추천 컨텐츠를 선택하는 단계; 및 상기 지정공간에 대해 상기 추천 컨텐츠를 추천하는 단계;를 포함하는, 인공지능 기반 장소 연계 안면 인식 정보 생성 방법을 제공한다.According to one embodiment, the step of photographing an image with an image recognition device installed in a space in which a plurality of people move (hereinafter, referred to as 'designated space'); Recognizing a plurality of people from a photographed image; collecting predetermined behavioral data from terminal devices of the plurality of people; Simultaneously grasping the recognized emotional states of a plurality of people (hereinafter, referred to as 'group emotion data'); Collecting current weather data; selecting recommended content corresponding to the designated space based on the behavioral data, the collective emotion data, and current weather data; and recommending the recommended content for the designated space.

또한, 상기 추천 컨텐츠는: 소정의 도서로 선택되고, 상기 지정공간에 배치된 소정의 키오스크에 추천 컨텐츠 출력 요청이 수신된 경우, 상기 추천 컨텐츠의 일부 내용을 발췌한 한손 도서가 출력되는 단계; 상기 키오스크에 구비된 맥박수분센서를 통해, 상기 한손 도서를 출력하는 사람의 피부전도도, 산소포화도 및 맥파를 측정하여 개인감정데이터를 기록하는 단계(이하, '제1 개인감정데이터 기록단계'라 함); 상기 한손 도서에 인쇄된 큐알코드를 스캔했을 때, 인터넷 쇼핑몰의 추천 컨텐츠 구매 페이지로 이동하거나, 상기 지정공간의 결제단말기로 구매 요청 메세지가 송신되는 구매단계; 상기 구매단계에서 지정공간의 결제단말기로 구매 요청 메세지가 송신된 경우, 추천 컨텐츠 구매자의 영상을 촬영하여 개인감정데이터를 기록하는 단계(이하, '제2 개인감정데이터 기록단계'라 함); 및 누적된 개인감정데이터를 기반으로, 상기 추천 컨텐츠의 감정별 가중치를 갱신하는 단계;를 포함할 수 있다.In addition, the recommended content is: When a predetermined book is selected and a request for outputting the recommended content is received at a predetermined kiosk disposed in the designated space, outputting a one-handed book extracted from a portion of the recommended content; Recording personal emotion data by measuring skin conductivity, oxygen saturation, and pulse wave of the person printing the one-handed book through the pulse rate moisture sensor provided in the kiosk (hereinafter, referred to as 'first personal emotion data recording step') ); a purchase step of moving to a recommended content purchase page of an Internet shopping mall or sending a purchase request message to a payment terminal in the designated space when the QR code printed on the one-handed book is scanned; When a purchase request message is transmitted to the payment terminal in the designated space in the purchase step, capturing an image of the recommended content buyer and recording personal emotion data (hereinafter, referred to as 'second personal emotion data recording step'); and updating a weight for each emotion of the recommended content based on the accumulated personal emotion data.

그리고, 상기 영상으로부터 감정 상태를 판단하기 위하여, 소정의 제1 감정 영상 세트로부터 제1 감정모델을 생성하는 단계; 상기 제1 감정모델로부터, 소정의 감정 분류별로 강한 감정표현과 약한 감정표현을 분류하는 단계; 상기 제1 감정 영상 세트에서 강한 감정표현에 해당하는 감정 영상을 제외하여 제2 감정 영상 세트를 생성하는 단계; 및 상기 제2 감정 영상 세트로부터 제2 감정모델을 생성하는 단계;를 포함하여, 상기 제2 감정모델을 기반으로 상기 단체감정데이터를 파악할 수 있다.And, generating a first emotion model from a predetermined first emotion image set in order to determine an emotional state from the image; classifying strong emotional expressions and weak emotional expressions for each predetermined emotion classification from the first emotion model; generating a second emotion image set by excluding emotion images corresponding to strong emotional expressions from the first emotion image set; and generating a second emotion model from the second emotion image set; the group emotion data may be grasped based on the second emotion model.

아울러, 상기 누적된 개인감정데이터는: 상기 제1 개인감정데이터 기록단계 및 제2 개인감정데이터 기록단계가 수행되기 전에 사전 수행되는 초기 개인감정데이터 구축단계;에 따라 구축되고, 상기 초기 개인감정데이터 구축단계는: 시험자에게 맥박수분센서를 착용한 상태에서, 시험자에게 소정의 영화 장면을 송출하는 단계; 상기 시험자의 피부전도도, 산소포화도 및 맥파를 측정하는 단계; 상기 시험자의 피부전도도, 산소포화도 및 맥파를 서포트 벡터 머신(Support Vector Machine, SVM)에 입력하는 단계; 상기 영화 장면별로 지정된 예측 감정을 기반으로, 상기 서포트 벡터 머신에서 추출된 개수 분류 대비 잘못 분류된 개수를 나눈 값인 오류율을 산출하되, 상기 서포트 벡터 머신에 적용된 커널함수의 감마값(γ), 계수(c) 및 차원(d)를 조정하여 각각의 오류율을 산출하는 단계; 상기 커널함수의 감마값(γ), 계수(c) 및 차원(d)을 조절하여 지정된 다수의 커널함수 중, 선택된 어느 한 커널함수가 적용된 서포트 벡터 머신을 사용하여, 기쁨, 슬픔, 긴장 및 설렘의 네 가지 감정에 대한 제3 개인감정데이터를 생성하는 단계; 및 상기 제3 개인감정데이터를 기반으로 시험자의 감정을 파악하여 소정의 디스플레이에 표기하고, 이에 대해 상기 시험자로부터 기쁨, 슬픔, 긴장 및 설렘 중 어느 감정에 해당하는지 피드백을 입력받는 단계;를 포함할 수 있다.In addition, the accumulated personal emotion data is built according to: the initial personal emotion data construction step performed before the first personal emotion data recording step and the second personal emotion data recording step are performed, and the initial personal emotion data The construction step includes: transmitting a predetermined movie scene to the tester while the tester is wearing the pulse moisture sensor; measuring skin conductance, oxygen saturation, and pulse wave of the tester; inputting the tester's skin conductance, oxygen saturation, and pulse wave into a Support Vector Machine (SVM); Based on the predicted emotion specified for each movie scene, an error rate is calculated by dividing the number classification extracted by the support vector machine by the number of misclassifications, and the gamma value (γ) and coefficient (c) of the kernel function applied to the support vector machine ) and dimension (d) to calculate each error rate; Joy, sadness, tension, and excitement are obtained by using a support vector machine to which a selected kernel function is applied among a plurality of kernel functions designated by adjusting the gamma value (γ), coefficient (c), and dimension (d) of the kernel function. generating third personal emotion data for the four emotions; and recognizing the tester's emotion based on the third personal emotion data, marking it on a predetermined display, and receiving feedback from the tester on which emotion among joy, sadness, tension, and excitement corresponds thereto. can

또한, 상기 초기 개인감정데이터 구축단계는: 상기 시험자가 촬영된 소정의 개인동영상을 획득하는 단계; 상기 개인동영상에서 개인동영상의 마지막 시점인 제1 시점의 영상 이미지를 제1 이미지로 추출하는 단계; 상기 제1 이미지에서 시험자의 얼굴이 차지하고 있는 영역을 제1 영역으로 구분하고, 상기 제1 이미지에서 상기 제1 영역이 있는 부분을 분할하여 제1-1 이미지를 추출하는 단계; 상기 개인동영상을 상기 제1 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제2 시점에 상기 제1 영역 내에서 시험자의 얼굴이 벗어나지 않은 것으로 확인되면, 상기 제2 시점부터 상기 제1 시점까지를 제1 구간으로 설정하는 단계; 상기 제1-1 이미지를 기초로, 상기 제1 구간의 개인동영상에 대한 감정을 파악하는 제4 개인감정데이터를 기록하는 단계(이하, '제4 개인감정데이터 기록단계'라 함); 상기 개인동영상에서 제2 시점의 영상 이미지를 제2 이미지로 추출하는 단계; 상기 제2 이미지에서 시험자의 얼굴이 차지하고 있는 영역을 제2 영역으로 구분하고, 상기 제2 이미지에서 상기 제2 영역이 있는 부분을 분할하여 제2-1 이미지를 추출하는 단계; 상기 제2-1 이미지를 추출하는 단계 이후, 상기 개인동영상을 상기 제2 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제3 시점에 상기 제2 영역 내에서 시험자의 얼굴이 벗어나지 않은 것으로 확인되면, 상기 제3 시점부터 상기 제2 시점까지를 제2 구간으로 설정하는 단계; 상기 제2-1 이미지를 기초로, 상기 제2 구간의 개인동영상에 대한 감정을 파악하는 제5 개인감정데이터를 기록하는 단계(이하, '제5 개인감정데이터 기록단계'라 함); 상기 제4 개인감정데이터 기록단계에서 파악된 감정과, 제5 개인감정데이터 기록단계에서 파악된 감정을 비교하여 더 약한 감정 표현으로 분류되는 개인감정데이터를 초기 개인감정데이터로써 기록하는 단계;를 더 포함할 수 있다.In addition, the initial personal emotion data establishment step may include: acquiring a predetermined personal video of the examiner; extracting a video image of a first point of view, which is the last point of time of the personal video, as a first image from the personal video; dividing an area occupied by the tester's face into a first area in the first image, and extracting a 1-1 image by dividing a portion of the first image where the first area is located; As a result of reproducing and analyzing the personal video in reverse chronological order from the first viewpoint, if it is confirmed that the tester's face does not deviate from the first region at the second viewpoint, the second viewpoint to the first viewpoint setting to 1 section; Recording fourth personal emotion data for determining the emotion for the personal video in the first section based on the 1-1 image (hereinafter, referred to as 'fourth personal emotion data recording step'); extracting a video image of a second viewpoint from the personal video as a second image; dividing an area occupied by the tester's face into a second area in the second image, and extracting a 2-1 image by dividing a portion of the second image where the second area is located; After the step of extracting the 2-1 image, as a result of reproducing and analyzing the personal video in reverse chronological order from the second viewpoint, if it is confirmed that the tester's face is not out of the second area at the third viewpoint, setting a period from the third time point to the second time point as a second interval; recording fifth personal emotion data for identifying emotions for the personal video of the second section based on the 2-1 image (hereinafter, referred to as 'fifth personal emotion data recording step'); comparing the emotion identified in the fourth personal emotion data recording step with the emotion identified in the fifth personal emotion data recording step, and recording personal emotion data classified as a weaker emotional expression as initial personal emotion data; can include

일실시예에 따른 장치는 하드웨어와 결합되어 상술한 방법들 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램에 의해 제어될 수 있다.An apparatus according to an embodiment may be combined with hardware and controlled by a computer program stored in a medium to execute any one of the methods described above.

일실시예에 따르면, 다수의 사람이 유동하는 공간에서, 다수의 사람의 감정을 기반으로 해당 공간의 사람들에게 컨텐츠를 추천할 수 있다.According to an embodiment, in a space where a plurality of people move, content may be recommended to people in the space based on emotions of the plurality of people.

또한, 표정 등을 기반으로 한 감정 데이터와 행동데이터(사람들의 검색기록 등), 및 날씨데이터를 결합함으로써 보다 감성에 밀접한 데이터를 기반으로 컨텐츠를 큐레이팅할 수 있다.In addition, content can be curated based on data more closely related to emotions by combining emotion data based on facial expressions, behavioral data (such as people's search records), and weather data.

그리고, 추천 컨텐츠 중 고객이 선택한 컨텐츠(도서)에 대해 소정의 한손 도서를 발행함으로써, 고객들이 전자기기가 아닌 인쇄물의 감성을 기반으로 도서를 구매할 수 있도록 도울 수 있다.In addition, by issuing a predetermined one-handed book for the content (book) selected by the customer among the recommended content, it is possible to help customers purchase the book based on the emotion of the printed matter, not the electronic device.

아울러, 고객이 도서를 구매하는 등 특정한 표정(감정)에 대한 행동을 누적 기록함으로써 큐레이션의 정확성을 점진적으로 개선시킬 수 있다.In addition, the accuracy of curation can be gradually improved by accumulatively recording behaviors for specific facial expressions (emotions), such as when a customer purchases a book.

또한, 다수의 사람이 유동하는 공간의 특성을 감안한 감정모델을 생성함으로써, 감정 파악의 정확성을 향상시킬 수 있다.In addition, by generating an emotion model considering the characteristics of a space in which a large number of people flow, it is possible to improve the accuracy of emotion identification.

그리고, 실제로 다수의 사람이 유동하는 공간에서 데이터가 누적되기 전에, 초기 개인감정데이터를 맥박수분센서 또는/및 개인동영상을 기반으로 구축할 수 있다.In addition, before data is accumulated in a space where a large number of people actually move, initial personal emotion data may be established based on a pulse rate sensor or/and a personal video.

도 1은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 시스템에서 출력된 한손 도서의 예시를 나타낸 도면이다.
도 3은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 시스템의 키오스크에서 맥박수분센서로 감정을 인식하는 동안 출력되는 화면의 예시를 나타낸 도면이다.
도 4는 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법의 '초기 개인감정데이터 구축단계(초기 감성 분류기 구축 프로세스)'를 나타낸 도면이다.
도 5는 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법을 나타낸 순서도이다.
도 6은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법에 한손 도서 방식의 프로모션이 적용되는 형태를 나타낸 순서도이다.
도 7은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법의 초기 개인감정데이터 구축단계를 상세히 나타낸 순서도이다.
도 8은 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법의 초기 개인감정데이터 구축단계를 상세히 나타낸 순서도이다.
도 9는 일실시예에 따른 인공지능 기반 장소 연계 안면 인식 정보 생성 방법에서 강한 감정표현을 제외하고 감정모델을 생성하는 과정을 나타낸 순서도이다.
1 is a diagram schematically showing the configuration of an artificial intelligence-based place-linked facial recognition information generating system according to an embodiment.
2 is a diagram showing an example of a one-handed book output from an artificial intelligence-based place-linked facial recognition information generation system according to an embodiment.
3 is a diagram illustrating an example of a screen output while recognizing an emotion with a pulse rate and moisture sensor in a kiosk of an artificial intelligence-based place-linked facial recognition information generation system according to an embodiment.
4 is a diagram illustrating an 'initial personal emotion data construction step (initial emotion classifier construction process)' of the artificial intelligence-based place-linked face recognition information generation method according to an embodiment.
5 is a flowchart illustrating a method for generating face recognition information based on place linking based on artificial intelligence according to an embodiment.
6 is a flowchart illustrating a form in which one-handed book-type promotion is applied to an artificial intelligence-based place-linked facial recognition information generating method according to an embodiment.
7 is a flowchart illustrating in detail the initial personal emotion data construction step of the artificial intelligence-based place-linked face recognition information generating method according to an embodiment.
8 is a flowchart illustrating in detail the initial personal emotion data construction step of the artificial intelligence-based place-linked face recognition information generation method according to an embodiment.
9 is a flowchart illustrating a process of generating an emotion model excluding strong emotional expressions in an artificial intelligence-based place-linked facial recognition information generation method according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes can be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents or substitutes to the embodiments are included within the scope of rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be modified and implemented in various forms. Therefore, the embodiments are not limited to the specific disclosed form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, such terms should only be construed for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It should be understood that when an element is referred to as being “connected” to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in the examples are used only for descriptive purposes and should not be construed as limiting. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present application, they should not be interpreted in an ideal or excessively formal meaning. don't

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are given to the same components regardless of reference numerals, and overlapping descriptions thereof will be omitted. In describing the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent vehicles, kiosks, and wearable devices.

인공지능(Artificial Intelligence, AI) 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템이며, 기존 규칙(Rule) 기반의 스마트 시스템과 달리 기계가 스스로 학습하고 판단하는 시스템이다. 인공지능 시스템은 사용할수록 인식률이 향상되고 사용자 취향을 보다 정확하게 이해할 수 있게 되어, 기존 규칙 기반의 스마트 시스템은 점차 심층 학습(Deep Learning) 기반 인공지능 시스템으로 대체되고 있다.An artificial intelligence (AI) system is a computer system that implements human-level intelligence, and unlike existing rule-based smart systems, machines learn and judge on their own. The more AI systems are used, the higher the recognition rate and the more accurate understanding of user preferences. Conventional rule-based smart systems are gradually being replaced by deep learning-based AI systems.

인공지능 기술은 기계 학습 및 기계 학습을 활용한 요소기술들로 구성된다. 기계 학습은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘 기술이며, 요소기술은 심층 학습 등의 기계 학습 알고리즘을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 기술로서, 언어적 이해, 시각적 이해, 추론/예측, 지식 표현, 동작 제어 등의 기술 분야로 구성된다.Artificial intelligence technology consists of machine learning and element technologies using machine learning. Machine learning is an algorithm technology that classifies/learns the characteristics of input data by itself, and element technology is a technology that uses machine learning algorithms such as deep learning to mimic functions such as recognition and judgment of the human brain. It consists of technical fields such as understanding, inference/prediction, knowledge expression, and motion control.

인공지능 기술이 응용되는 다양한 분야는 다음과 같다. 언어적 이해는 인간의 언어/문자를 인식하고 응용/처리하는 기술로서, 자연어 처리, 기계 번역, 대화시스템, 질의 응답, 음성 인식/합성 등을 포함한다. 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다. 추론 예측은 정보를 판단하여 논리적으로 추론하고 예측하는 기술로서, 지식/확률 기반 추론, 최적화 예측, 선호 기반 계획, 추천 등을 포함한다. 지식 표현은 인간의 경험정보를 지식데이터로 자동화 처리하는 기술로서, 지식 구축(데이터 생성/분류), 지식 관리(데이터 활용) 등을 포함한다. 동작 제어는 차량의 자율 주행, 로봇의 움직임을 제어하는 기술로서, 움직임 제어(항법, 충돌, 주행), 조작 제어(행동 제어) 등을 포함한다.The various fields where artificial intelligence technology is applied are as follows. Linguistic understanding is a technology for recognizing and applying/processing human language/characters, including natural language processing, machine translation, dialogue systems, question and answering, voice recognition/synthesis, and the like. Visual understanding is a technology for recognizing and processing objects like human vision, and includes object recognition, object tracking, image search, person recognition, scene understanding, space understanding, image improvement, and the like. Inference prediction is a technique of reasoning and predicting logically by judging information, and includes knowledge/probability-based reasoning, optimization prediction, preference-based planning, and recommendation. Knowledge expression is a technology that automatically processes human experience information into knowledge data, and includes knowledge construction (data creation/classification) and knowledge management (data utilization). Motion control is a technology for controlling the autonomous driving of a vehicle and the movement of a robot, and includes motion control (navigation, collision, driving), manipulation control (action control), and the like.

일반적으로 기계 학습 알고리즘을 실생활에 적용하기 위해서는 기계 학습의 기본 방법론의 특성상 Trial and Error 방식으로 학습을 수행하게 된다. 특히, 심층 학습의 경우 수십만 번의 반복 실행을 필요로 한다. 이를 실제 물리적인 외부 환경에서 실행하기는 불가능하여 대신 실제 물리적인 외부 환경을 컴퓨터상에서 가상으로 구현하여 시뮬레이션을 통해 학습을 수행한다.In general, in order to apply machine learning algorithms to real life, learning is performed in a trial and error method due to the nature of the basic methodology of machine learning. In particular, deep learning requires hundreds of thousands of iterations. It is impossible to execute this in an actual physical external environment, so instead, the actual physical external environment is virtually implemented on a computer and learning is performed through simulation.

도 1은 일실시예에 따른 시스템의 구성을 개략적으로 나타낸 도면이다.1 is a diagram schematically showing the configuration of a system according to an embodiment.

도 1을 참조하면, 일실시예에 따른 시스템은 복수의 고객단말기(2) 및 하나 이상의 영상인식장치(3)를 포함할 수 있다. 또한, 상기 고객단말기(2), 영상인식장치(3)와 유/무선 연결되어 정보를 송수신하고 데이터를 처리하는 메인서버(1)와, 상기 메인서버(1)의 데이터를 관리하는 데이터베이스서버(4)를 포함할 수 있다. 또한, 상기 메인서버(1)에 연결되고 지정공간에 배치되어 고객(사람)들과 상호작용하는 소정의 키오스크(5)를 포함할 수 있다.Referring to FIG. 1 , a system according to an embodiment may include a plurality of customer terminals 2 and one or more image recognition devices 3 . In addition, a main server 1 that is connected to the customer terminal 2 and the image recognition device 3 by wire or wirelessly to transmit and receive information and process data, and a database server that manages data of the main server 1 ( 4) may be included. In addition, a predetermined kiosk 5 connected to the main server 1 and disposed in a designated space to interact with customers (people) may be included.

후술하는 각 단계들은 별다른 언급이 없는 경우 대부분 메인서버(1)에 의해 수행될 수 있으며, 이외에 고객단말기(2)나 키오스크(5) 등에서 분산되어 처리되는 것도 가능하며, 이러한 연산 처리 주체는 통상의 기술자가 본 발명의 설명을 참조하여 쉽게 전환 및 지정할 수 있을 것이다.Most of the steps to be described later can be performed by the main server 1 unless otherwise noted, and in addition, it is possible to be distributed and processed in the customer terminal 2 or kiosk 5, etc. A skilled person will be able to easily convert and specify by referring to the description of the present invention.

일실시예에 따르면, 다수의 사람(고객)이 유동하는 공간(이하, '지정공간'이라 함)에 설치되는 영상인식장치(3)로 영상을 촬영하는 단계(S100);에서, CCTV나 사람의 얼굴이 정면에서 촬영되도록 소정의 높이에 별도로 설치된 카메라 등으로 사진이나 동영상 등을 촬영할 수 있다.According to one embodiment, in step (S100) of photographing an image with an image recognition device 3 installed in a space in which a plurality of people (customers) move (hereinafter referred to as a 'specified space'); in, CCTV or people Photos or videos may be taken with a camera installed separately at a predetermined height so that the face of the person is photographed from the front.

이후, 촬영된 영상으로부터 다수의 사람을 인식하는 단계(S200);에서는 소정의 객체 인식 라이브러리/알고리즘 등을 통해 영상 내에 있는 다수의 사람을 동시에 인식할 수 있다.Then, in the step of recognizing multiple people from the captured image (S200), multiple people in the image can be recognized simultaneously through a predetermined object recognition library/algorithm.

상기 다수의 사람의 단말장치로부터 소정의 행동데이터를 수집하는 단계(S300);는 상기 사람들이 구비한 스마트기기 등의 고객단말기(2)가 메인서버(1)에 연동된 경우에 수행될 수 있다.The step (S300) of collecting predetermined behavioral data from the terminal devices of the plurality of people; may be performed when the customer terminals 2 such as smart devices equipped by the people are linked to the main server 1 .

예를 들어, 상기 사람이 메인서버(1)의 데이터베이스에 등록된 회원인 경우, 회원 데이터로부터 소정의 검색 기록, 컨텐츠 구매 내역, 장바구니, 컨텐츠 조회 내역, 자주 방문하는 장소, 자주 방문하는 코너(예를 들어, 서점의 자기계발, 인문학, 종교 등의 구획) 등의 데이터를 수집할 수 있다.For example, if the person is a member registered in the database of the main server 1, certain search records, content purchase history, shopping cart, content search history, frequently visited places, frequently visited corners (eg For example, data such as bookstore self-development, humanities, and religion divisions) can be collected.

이러한 행동데이터 또한, 후술하는 단체감정데이터와 같이 지정공간에 대한 지수로써 산출될 수 있으며, 이에 따라 자연적으로 행동데이터에 대한 비식별화가 진행될 수 있다.Such behavioral data may also be calculated as an index for a designated space, such as collective emotion data described later, and accordingly, de-identification of behavioral data may proceed naturally.

예를 들어, 지정공간을 방문한 A 고객의 '우울증' 관련 컨텐츠 검색 기록은, A 고객과 분리되어 상기 지정공간에 대한 데이터로써만 기능하게 되므로, A 고객이 '우울증'에 대해 검색했다는 사실을 외부에서는 알 수 없게 된다.For example, since customer A's 'depression'-related content search record, which has visited a designated space, is separated from customer A and functions only as data for the designated space, the fact that customer A has searched for 'depression' is not known to the outside world. becomes unknown in

인식된 다수의 사람의 감정 상태(이하, '단체감정데이터'라 함)를 동시에 파악하는 단계(S400);에서는 인식된 다수의 사람 각각에 대해 감정 상태를 각각 동시에 파악한다.In step S400 of simultaneously grasping the recognized emotional states (hereinafter referred to as 'group emotion data') of a plurality of recognized persons, the emotional states of each of the recognized plurality of persons are simultaneously grasped.

영상이나 사진으로부터 사람의 감정을 파악하는 인공지능 알고리즘은 공지된 기술이므로 상세한 설명은 생략한다.An artificial intelligence algorithm for identifying human emotions from images or photos is a well-known technology, so a detailed description thereof will be omitted.

다수의 사람에 대해 파악된 각각의 감정 상태는 서로 합산되어 단체감정데이터로써 산출될 수 있다. 예를 들어, 소정의 감정 분류에 대한 감정 지수들을 각 사람별로 파악하고, 이를 평균하거나 합산하는 등 소정의 과정을 거쳐 우세한 감정을 선정하거나, 지정공간에 대한 별도의 감정 지수를 산출할 수도 있다.Each of the emotional states identified for a plurality of people may be summed up and calculated as collective emotional data. For example, a dominant emotion may be selected through a predetermined process, such as identifying emotion indices for a predetermined emotion classification for each person and averaging or summing them, or a separate emotion index for a designated space may be calculated.

현재 날씨데이터를 수집하는 단계(S500);에서는 기상청의 날씨 API 등으로부터 현재 시각 기준에서의 지정공간 주변 날씨 정보를 수집한다.In the step of collecting current weather data (S500), weather information around a designated space at the current time is collected from a weather API of the Korea Meteorological Administration.

예를 들어, 본 발명의 일실시예에 따른 시스템이 적용된 두 지정공간 A, B에 대해, 서울시 구로구에 위치한 A 지정공간과 대전시 유성구에 위치한 B 지정공간에서 서로 다른 날씨데이터가 수집될 수 있을 것이다.For example, for two designated spaces A and B to which the system according to an embodiment of the present invention is applied, different weather data may be collected from a designated space A located in Guro-gu, Seoul and a designated space B located in Yuseong-gu, Daejeon. .

이러한 날씨데이터에는 날씨별로 소정의 감정지수가 지정될 수 있다. 예를 들어, 비가 추적추적 내리는 날씨를 슬픔 감정지수가 높은 것으로 지정할 수 있다.A predetermined emotional index may be designated for each weather in the weather data. For example, a weather in which it rains intermittently can be designated as having a high sadness emotion index.

상기 행동데이터, 상기 단체감정데이터 및 현재 날씨데이터를 기반으로, 상기 지정공간에 대응되는 추천 컨텐츠를 선택하는 단계(S600);는 서로 다른 세 종류의 데이터를 기반으로 컨텐츠를 큐레이팅하는 단계를 의미한다.Selecting recommended content corresponding to the designated space based on the behavioral data, group emotion data, and current weather data (S600) means curating content based on three different types of data. .

상기 서로 다른 세 종류의 데이터에 대한 각각의 가중치는 지정공간에 따라, 정책에 따라 달리 지정될 수도 있다.Weights for each of the three different types of data may be differently designated according to a designated space or policy.

예를 들어, 서점의 경우 현재 감정이 도서를 선택하고 구매하는 데 상대적으로 큰 영향을 끼친다고 판단될 수 있으므로 단체감정데이터 및 날씨데이터의 가중치를 높게 지정할 수 있다.For example, in the case of a bookstore, since it can be determined that the current emotion has a relatively large influence on the selection and purchase of books, the weight of collective emotion data and weather data can be set high.

다른 예시로써, 상대적으로 컨텐츠의 선택 및 구매에 감정의 영향이 작게 판단되는 컨텐츠에 대해서는 단체감정데이터의 가중치를 낮게, 행동데이터의 가중치를 높게 지정할 수 있다.As another example, a low weight of group emotion data and a high weight of behavior data may be designated for content in which it is determined that the influence of emotion on content selection and purchase is relatively small.

서로 다른 데이터를 조합하여 컨텐츠를 큐레이팅 하는 과정은 통상의 기술자들이 공지된 큐레이팅 방법들을 참고하여 실시할 수 있으므로 상세한 설명은 생략한다.The process of curating content by combining different data can be performed by those skilled in the art by referring to well-known curating methods, so a detailed description will be omitted.

상기 지정공간에 대해 상기 추천 컨텐츠를 추천하는 단계(S700);의 예시로써, 상기 지정공간을 방문한 고객들의 고객단말기(2)로 추천 컨텐츠와 관련된 소정의 알림, 메세지 또는/및 데이터를 전송할 수 있다. 다른 예시로써, 상기 지정공간에 설치된 소정의 디스플레이 장치(키오스크(5)를 포함함)에 추천 컨텐츠와 관련된 이미지나 영상을 송출할 수 있다. 상기 두 가지 예시는 선택적으로 또는 동시에 적용될 수 있다.As an example of the step of recommending the recommended content for the designated space (S700), a predetermined notification, message, or / and data related to the recommended content can be transmitted to the customer terminals 2 of customers who have visited the designated space. . As another example, an image or video related to recommended content may be transmitted to a predetermined display device (including the kiosk 5) installed in the designated space. The above two examples may be applied selectively or simultaneously.

본 발명의 일실시예는 서점을 방문한 고객에게 도서를 추천하는 용도로써 적절하게 활용될 수 있다. 따라서, 상기 추천 컨텐츠는: 소정의 도서로 선택될 수 있다.One embodiment of the present invention can be appropriately used as a purpose of recommending books to customers visiting a bookstore. Accordingly, the recommended content may be selected as a predetermined book.

또한, 상기 지정공간에 배치된 소정의 키오스크(5)에 추천 컨텐츠(추천 도서) 출력 요청이 수신된 경우(S800), 상기 추천 컨텐츠의 일부 내용을 발췌한 한손 도서가 출력되는 단계(S810);에서는 추천 컨텐츠 내용 중 일부를 발췌한 분량을 소정의 감열지에 출력하여 고객에게 제공할 수 있다.In addition, when a request for outputting recommended contents (recommended books) is received at a predetermined kiosk 5 disposed in the designated space (S800), a one-handed book extracted from a part of the recommended contents is output (S810); [0041] In [0083], a part of the recommended contents may be output on a predetermined thermal paper and provided to the customer.

상기와 같은 방식으로 컨텐츠를 추천받은 고객은 주변에 배치된 키오스크(5)에 접근하여 키오스크(5)를 작동시킬 수 있으며, 키오스크(5)에서 추천 컨텐츠의 한손 도서 출력 버튼을 조작함으로써 상기와 같이 한손 도서를 제공받을 수 있다.Customers who have been recommended content in the above manner can approach the kiosk 5 placed around them and operate the kiosk 5, and manipulate the one-handed book output button of the recommended content in the kiosk 5 as described above. One-handed books may be provided.

바람직하게는, 일반 도서(추천 컨텐츠)의 내용 중 2페이지 내지 5페이지 분량의 내용을 추출하여 상기 감열지에 출력할 수 있다.Preferably, 2 to 5 pages of contents of a general book (recommended contents) may be extracted and output to the thermal paper.

일실시예에 따르면, 감열지는 80mm X 300mm 크기로, 글자크기는 10px, 줄 간격 1.0으로 한손 도서를 출력할 수 있으며, 이 경우 한손 도서에는 약 1750자 정도의 내용(일반 도서 155mm X 225mm 기준 약 2.4페이지 분량)이 수록될 수 있다. 이렇게 출력된 한손 도서의 예시가 도 2에 도시되어 있다.According to one embodiment, a one-handed book can be printed on thermal paper with a size of 80mm X 300mm, a font size of 10px, and a line spacing of 1.0. 2.4 pages) may be included. An example of a one-handed book thus output is shown in FIG. 2 .

상기 키오스크(5)에 구비된 맥박수분센서를 통해, 상기 한손 도서를 출력하는 사람의 피부전도도, 산소포화도 및 맥파를 측정하여 개인감정데이터를 기록하는 단계(이하, '제1 개인감정데이터 기록단계'라 함; S820);에서는, 고객의 도움으로 감정 파악의 정확도를 개선시킬 수 있다.Recording personal emotion data by measuring skin conductance, oxygen saturation, and pulse wave of the person outputting the one-handed book through the pulse rate moisture sensor provided in the kiosk 5 (hereinafter, 'first personal emotion data recording step') '; S820);, the accuracy of emotion identification can be improved with the help of the customer.

예를 들어, 한손 도서의 출력을 회원에 한해 무료로 제공하는 등의 방식으로 제공하면서, 출력을 위해서는 키오스크(5)에 구비된 맥박수분센서를 작동시키도록 제한하여, 한손 도서를 출력하는 모든 고객의 개인감정데이터를 수집할 수 있다. 다만, 이를 위하여 회원가입 시 또는 키오스크(5) 이용 시 개인감정데이터 수집 및 활용에 대한 동의 절차를 수행하는 것이 바람직하다.For example, all customers who print one-handed books by limiting the operation of the pulse moisture sensor provided in the kiosk 5 for printing while providing the printing of one-handed books free of charge only to members. of personal emotion data can be collected. However, for this purpose, it is desirable to perform consent procedures for the collection and use of personal emotional data when signing up for membership or using the kiosk (5).

이후 상기 한손 도서에 인쇄된 큐알코드를 스캔했을 때(S830), 인터넷 쇼핑몰의 추천 컨텐츠 구매 페이지로 이동하거나(S841), 상기 지정공간의 결제단말기로 구매 요청 메세지가 송신되는(S842) 구매단계(S840);가 수행될 수 있다.Then, when the QR code printed on the one-handed book is scanned (S830), the purchase step of moving to the recommended content purchase page of the Internet shopping mall (S841) or sending a purchase request message to the payment terminal in the designated space (S842) ( S840); may be performed.

상기 기재에서 '큐알코드'는, 바코드 등 소정의 컨텐츠(상품)를 특정할 수 있는 식별 이미지를 균등한 범위로 포함하여 해석될 수 있다.In the above description, 'QR code' can be interpreted to include an identification image capable of specifying predetermined contents (products) such as barcodes in an equivalent range.

상기 한손 도서는 도서의 일부 내용이나 후기 등을 발췌하여 생성된 마케팅/프로모션용 출력물이므로, 고객은 해당 한손 도서를 읽어본 뒤 추천 컨텐츠를 구매할지 여부를 결정하게 된다.Since the one-handed book is an output for marketing/promotion created by extracting some contents or reviews of the book, the customer reads the corresponding one-handed book and then decides whether to purchase the recommended content.

고객이 해당 추천 컨텐츠를 구매하려는 경우, 자신의 고객단말기(2)의 QR스캐너를 이용하여 큐알코드를 스캔하고, 인터넷 쇼핑몰(도서 쇼핑몰, 도서 쇼핑 앱 등을 포함함)의 해당 추천 컨텐츠 소개 페이지로 접속할 수 있다.When a customer wants to purchase the recommended content, he/she scans the QR code using the QR scanner of his or her customer terminal (2), and goes to the recommended content introduction page of the Internet shopping mall (including book shopping malls, book shopping apps, etc.) can connect

또는/및, 지정공간(서점)에서 POS기 등 결제 관련 장치에 연결된 스캐너로 상기 큐알코드를 스캔함으로써, 해당 추천 컨텐츠에 대한 결제 과정을 진행할 수 있다.Alternatively, by scanning the QR code with a scanner connected to a payment-related device such as a POS machine in a designated space (bookstore), a payment process for the corresponding recommended content may be performed.

고객 또는 지정공간의 직원이 상기 추천 컨텐츠의 위치를 찾기 쉽도록, 상기 한손 도서는 지정공간 내에서의 해당 추천 컨텐츠 배치 위치가 포함되어 인쇄될 수 있다.The one-handed book may be printed with the location of the recommended content in the designated space so that the customer or the staff of the designated space can easily find the location of the recommended contents.

상기 구매단계(S840)에서 지정공간의 결제단말기로 구매 요청 메세지가 송신된 경우, 추천 컨텐츠 구매자의 영상을 촬영하여 개인감정데이터를 기록하는 단계(이하, '제2 개인감정데이터 기록단계'라 함; S850);에서도 추천 컨텐츠를 구매하는 고객의 감정을 파악하고 이를 해당 추천 컨텐츠에 반영함으로써, 어떤 감정을 느끼는 사람에게 해당 추천 컨텐츠가 적합한지에 대한 정확성을 개선할 수 있다.When a purchase request message is transmitted to the payment terminal in the designated space in the purchase step (S840), capturing an image of the recommended content buyer and recording personal emotion data (hereinafter, referred to as 'second personal emotion data recording step') In ;S850), it is also possible to improve the accuracy of whether the recommended content is suitable for a person feeling any emotion by identifying the emotion of the customer who purchases the recommended content and reflecting it in the corresponding recommended content.

이를 위하여, 누적된 개인감정데이터를 기반으로, 상기 추천 컨텐츠의 감정별 가중치를 갱신하는 단계(S860);를 포함할 수 있다.To this end, based on the accumulated personal emotion data, updating the weight for each emotion of the recommended content (S860); may include.

일반적으로, 서점이나 백화점 등을 유동하는 사람들은, 감정 표현의 상대방이 있는 경우보다 상대적으로 소극적인 감정 표현(표정 등)을 나타낸다.In general, people who move through bookstores or department stores show relatively passive emotional expressions (expressions, etc.) compared to the case where there is a counterpart of emotional expression.

이에 따라, 기쁨, 슬픔 등의 표현이 적극적으로 표현되는 데이터에 의해 학습된 감정모델을 기반으로 지정공간을 유동하는 사람들에 대한 감정을 파악하게 될 경우, 감정 파악의 정확도가 낮을 수 있다.Accordingly, when the emotion of people moving in a designated space is identified based on the emotion model learned by the data actively expressing expressions such as joy and sadness, the accuracy of emotion identification may be low.

본 발명의 일실시예에서는, 이러한 적극적인 감정표현(표정) 데이터들을 제외하고, 소극적인 감정표현 데이터들을 기반으로 감정모델을 생성함으로써, 서점이나 백화점 등의 공공장소를 유동하는 사람들의 감정을 보다 더 정확하게 파악할 수 있다.In one embodiment of the present invention, by generating an emotion model based on passive emotion expression data, excluding these active emotion expression (facial expression) data, the emotions of people flowing in public places such as bookstores and department stores more accurately can figure it out

상기 영상으로부터 감정 상태를 판단하기 위하여, 소정의 제1 감정 영상 세트로부터 제1 감정모델을 생성하는 단계(S1);에서는 감정모델을 생성하기 위한 학습 데이터로써 다수의 감정 영상들을 활용하며, 상술한 적극적인 감정표현 및 소극적인 감정표현들이 모두 포함된 영상 데이터들을 '제1 감정 영상 세트'로 지칭한다.In order to determine the emotional state from the images, generating a first emotion model from a predetermined first emotion image set (S1); a plurality of emotion images are used as training data for generating an emotion model, and the above-described emotion images are used. Image data including both active and passive emotional expressions are referred to as a 'first emotion image set'.

그리고, 상기 제1 감정모델로부터, 소정의 감정 분류별로 강한 감정표현과 약한 감정표현을 분류하는 단계(S2);에서는 기쁨, 슬픔, 긴장 및 설렘 등의 감정 분류별로, 감정 지수가 상대적으로 높게 산출되는 강한 감정표현과 감정 지수가 상대적으로 낮게 산출되는 약한 감정표현을 분류한다. 상기 강한 감정표현과 약한 감정표현을 구분하는 감정 지수의 수치가 별도로 지정되는 것만은 아니며, 일반적인 분류 알고리즘에 의해 분류될 수 있다.Then, in the step (S2) of classifying strong emotional expressions and weak emotional expressions for each predetermined emotion category from the first emotion model, the emotional index is calculated to be relatively high for each emotion category such as joy, sadness, tension, and excitement. We classify strong emotional expressions that produce high levels of emotion and weak emotional expressions that have a relatively low emotional index. The value of the emotional index for distinguishing the strong emotional expression from the weak emotional expression is not separately designated, and can be classified by a general classification algorithm.

상기 제1 감정 영상 세트에서 강한 감정표현에 해당하는 감정 영상을 제외하여 제2 감정 영상 세트를 생성하는 단계(S3);에서는, 제1 감정 영상 세트에서 상기와 같은 분류 과정에 따라 강한 감정표현으로 분류된 감정 영상 데이터들을 제외한 제2 감정 영상 세트를 필터링할 수 있다. 동일한 영상 데이터 파일이 중복하여 존재하는 경우 데이터 처리 부하, 저장 공간 등의 문제를 발생시킬 수 있으므로, 상기 '제2 감정 영상 세트를 생성'하는 것이 동일한 영상을 복사하는 것을 의미하는 것은 아니다.In the step (S3) of generating a second emotion image set by excluding emotion images corresponding to strong emotional expressions from the first emotion image set, the strong emotion expressions are classified from the first emotion image set according to the above classification process. The second emotion image set excluding the classified emotion image data may be filtered. When the same image data file exists in duplicate, problems such as data processing load and storage space may occur. Thus, 'generating a second emotion image set' does not mean copying the same image.

일실시예에 따르면, 상기 제2 감정 영상 세트로부터 제2 감정모델을 생성하는 단계(S4);를 포함하여, 상기 제2 감정모델을 기반으로 상기 단체감정데이터를 파악할 수 있다.According to an embodiment, the group emotion data may be grasped based on the second emotion model, including generating a second emotion model from the second emotion image set (S4).

제1 감정모델은 강한 감정표현에 해당하는 영상 데이터들을 필터링하기 위하여 생성되었으며, 제2감정모델은 상대적으로 약한 감정표현들에 대해 기쁨, 슬픔, 긴장 및 설렘 등의 감정을 보다 정확하게 분류하기 위하여 생성되었다.The first emotion model was created to filter image data corresponding to strong emotional expressions, and the second emotion model was created to more accurately classify emotions such as joy, sadness, tension, and excitement for relatively weak emotional expressions. It became.

아울러, 상기 누적된 개인감정데이터는: 상기 제1 개인감정데이터 기록단계(S820) 및 제2 개인감정데이터 기록단계(S850)가 수행되기 전에 사전 수행되는 초기 개인감정데이터 구축단계(S900);에 따라 구축될 수 있다.In addition, the accumulated personal emotion data is: in the initial personal emotion data construction step (S900) performed before the first personal emotion data recording step (S820) and the second personal emotion data recording step (S850) are performed. can be built according to

상기 개인감정데이터는, 단체감정데이터를 파악하는데에도 활용될 수 있다.The individual emotion data can also be used to identify group emotion data.

이러한 개인감정데이터는 본 발명의 일실시예에 따른 방법, 시스템 및 장치가 일정한 기간 이상 서비스되어 실제 서비스 동안 수집된 데이터가 누적되기 전까지는, 임의로 입력 및 수집된 데이터들을 기반으로 사용어야 한다. 따라서, 이러한 임의 데이터들의 정확도를 개선하기 위한 초기 개인감정데이터 구축단계(S900)를 아래와 같이 상세히 설명한다.Such personal emotion data should be used based on arbitrarily input and collected data until the method, system, and apparatus according to an embodiment of the present invention are serviced for a certain period of time or more and data collected during actual service is accumulated. Therefore, the initial personal emotion data construction step (S900) for improving the accuracy of these arbitrary data will be described in detail as follows.

시험자에게 맥박수분센서를 착용한 상태에서, 시험자에게 소정의 영화 장면을 송출하는 단계(S911);에서는, 시험자마다 특정한 감정에서의 신체 변화를 측정하기 위하여, 사람에게 특정한 감정을 유발시키는 영화의 장면들을 송출한다.In the step of sending a predetermined movie scene to the tester in a state where the tester is wearing the pulse moisture sensor (S911), in order to measure body changes in specific emotions for each tester, a movie scene that induces a specific emotion in a person send them out

이후(영화 장면 송출 도중에), 상기 시험자의 피부전도도, 산소포화도 및 맥파를 측정하는 단계(S912);를 수행한다.Thereafter (during transmission of a movie scene), a step (S912) of measuring the tester's skin conductance, oxygen saturation, and pulse wave is performed.

상기 맥박수분센서는 피부전도도 측정을 위한 전극과, 산소포화도 및 맥파 측정을 위한 PPG 방식 광혈류량 측정 센서로 구성될 수 있다. 이러한 맥박수분센서는 키오스크(5)에 내장된 PC(중앙처리장치) 등과 RS232(시리얼 통신)을 통해 통신하며, 센서는 시리얼 통신을 통해 bit 단위의 값을 PC에 전송하고, PC는 각각의 bit를 실수형으로 변환하여 신호 값을 데이터 처리한다. 이러한 과정들은, pywin32, pySerial 라이브러리를 활용하여 처리될 수 있다.The pulse rate moisture sensor may include an electrode for measuring skin conductivity and a PPG type optical blood flow measurement sensor for measuring oxygen saturation and pulse wave. This pulse moisture sensor communicates with a PC (central processing unit) built into the kiosk 5 through RS232 (serial communication), and the sensor transmits a value in bit units to the PC through serial communication, and the PC transmits each bit Converts to a real number type and processes the signal value as data. These processes can be handled by utilizing the pywin32 and pySerial libraries.

심박수와 심전도 등의 심장 관련 생체 신호는 일반적으로 교감, 부교감의 자율 신경계의 변화를 분석하는데 사용된다. 피부전도도는 땀샘의 변화 지표에 따라 자율 신경계 반응을 측정하는데 사용된다. 산소포화도는 광혈류량 센서를 통해 혈류량을 체크하여 스트레스 지수를 측정하는 데에 사용된다. 이 세가지를 활용한 생체 신호 계측은 기타 방법(뇌파, 행동, 홍채)보다 상대적으로 측정이 간단하고 반복성이 크므로 자율 신경계를 측정하고 감정상태를 파악하기 위한 간단하고 유용한 방법이다. 시간이 없는 사용자의 빠른 접근성을 위해 본 발명의 일실시예에서는 맥파와 심전도를 기준으로 생체 신호 계측을 진행했다.Heart-related vital signs such as heart rate and electrocardiogram are generally used to analyze changes in the sympathetic and parasympathetic autonomic nervous system. Skin conductance is used to measure the response of the autonomic nervous system according to the change index of sweat glands. Oxygen saturation is used to measure a stress index by checking blood flow through an optical blood flow sensor. Bio-signal measurement using these three is a simple and useful method for measuring the autonomic nervous system and identifying emotional states because it is relatively simple to measure and has high repeatability compared to other methods (brain wave, behavior, iris). For quick access by users who do not have time, in an embodiment of the present invention, bio-signal measurement is performed based on pulse waves and electrocardiograms.

상기 시험자의 피부전도도, 산소포화도 및 맥파를 서포트 벡터 머신(Support Vector Machine, SVM)에 입력하는 단계(S913);에서는 맥파 데이터, 피부전도도 데이터 및 산소포화도 데이터를 처리하고 이로부터 특징을 추출하여 SVM에 입력한다.Inputting the tester's skin conductance, oxygen saturation, and pulse wave into a Support Vector Machine (SVM) (S913); processing the pulse wave data, skin conductance data, and oxygen saturation data, extracting features from them, and SVM Enter in

맥파 데이터를 처리하고 특징을 추출하는 과정은 다음과 같다.The process of processing pulse wave data and extracting features is as follows.

① 맥파의 형태① Type of pulse wave

맥파의 뜨고 가라 앉음은 맥파의 형태로 판별한다. 맥파의 형태는 크게 규칙도와 빠르기의 2가지 요소로 정의할 수 있다. 맥파의 규칙도가 작고 빠르면 ‘부맥’으로 처리하고, 맥파의 규칙도가 크고 속도가 느리면 ‘침맥’으로 처리한다. 빠르기와 규칙도를 표준화하여 나누면 1에 가까울수록 ‘부맥’, 0에 가까울 수록 ‘침맥’으로 처리한다.The rise and fall of the pulse wave is determined by the shape of the pulse wave. The shape of the pulse wave can be largely defined by two factors: regularity and speed. If the regularity of the pulse wave is small and fast, it is treated as ‘swelling pulse’, and if the regularity of the pulse wave is large and slow, it is treated as ‘sive pulse’. When the speed and regularity are standardized and divided, the closer to 1 is treated as ‘swelling pulse’, and the closer to 0, ‘sive pulse’.

② 빠르기② speed

맥파의 첨두간격의 크기 변화를 의미한다. 이는 맥박수의 변화량과 동일하게 해석된다.It means the change in the size of the peak interval of the pulse wave. This is interpreted the same as the amount of change in pulse rate.

Figure 112022117850796-pat00001
에서
Figure 112022117850796-pat00002
는 맥파에서 첨두치가 발생한 상대적인 시간을 나타낸다.
Figure 112022117850796-pat00001
at
Figure 112022117850796-pat00002
represents the relative time at which the peak occurred in the pulse wave.

③ 맥파의 규칙도③ Pulse wave rule diagram

맥파의 매끄러운 정도는 맥파 발생의 규칙적인 정도를 이용해 파악한다.The smoothness of the pulse wave is determined using the regularity of pulse wave generation.

Figure 112022117850796-pat00003
식을 통해, 맥파 주기 변화율이 클 경우 맥파는 불규칙하게 형성되어 ‘활맥’으로, 반대로 주기변화가 너무 작을경우 ‘색맥’으로 분류 처리한다.
Figure 112022117850796-pat00003
According to the equation, when the rate of change of the pulse wave period is large, the pulse wave is irregularly formed and classified as a 'stride vein'.

(

Figure 112022117850796-pat00004
은 측정한 심박수 간격의 평균값, N은 추출된 맥파 첨두치)(
Figure 112022117850796-pat00004
is the average value of the measured heart rate intervals, N is the peak value of the extracted pulse wave)

피부전도도 데이터를 처리하고 특징을 추출하는 과정은 다음과 같다.The process of processing skin conductance data and extracting features is as follows.

① 조습도① humidity level

조습도는 환경 및 센싱방법에 대한 영향을 최소화하기 위해 표준화한 크기로 계산한다.Humidity is calculated in a standardized size to minimize the impact on the environment and sensing method.

Figure 112022117850796-pat00005
Figure 112022117850796-pat00005

(i번째 샘플링된 데이터는

Figure 112022117850796-pat00006
, 샘플링 신호의 평균은
Figure 112022117850796-pat00007
, 표준편차는 δ)(The ith sampled data is
Figure 112022117850796-pat00006
, the average of the sampled signals is
Figure 112022117850796-pat00007
, the standard deviation is δ)

② 변화율② rate of change

변화율은 시간에 따른 조습도의 변화 정도를 의미한다.The rate of change refers to the degree of change in the humidity level over time.

Figure 112022117850796-pat00008
Figure 112022117850796-pat00008

(

Figure 112022117850796-pat00009
는 i번째의 조습도, 총 샘플수는 N)(
Figure 112022117850796-pat00009
is the i-th humidity level, the total number of samples is N)

산소포화도 데이터를 처리하고 특징을 추출하는 과정은 다음과 같다.The process of processing oxygen saturation data and extracting features is as follows.

혈중 산소포화도(SpO2)는 혈액 성분 중 헤모글로빈 내에 존재하는 산소 함유량을 나타내는 신호다.Blood oxygen saturation (SpO2) is a signal that indicates the oxygen content present in hemoglobin among blood components.

Figure 112022117850796-pat00010
Figure 112022117850796-pat00010

(AC성분은 말초혈관을 통과하는 혈액에 흡수 된 광량, DC성분은 근육, 표피, 뼈와 같은 조직에 의해 흡수된 광량)(AC component is the amount of light absorbed by blood passing through peripheral blood vessels, and DC component is the amount of light absorbed by tissues such as muscle, epidermis, and bone)

상기 영화 장면별로 지정된 예측 감정을 기반으로, 상기 서포트 벡터 머신에서 추출된 개수 분류 대비 잘못 분류된 개수를 나눈 값인 오류율을 산출하되, 상기 서포트 벡터 머신에 적용된 커널함수의 감마값(γ), 계수(c) 및 차원(d)를 조정하여 각각의 오류율을 산출하는 단계(S914); 상기 커널함수의 감마값(γ), 계수(c) 및 차원(d)을 조절하여 지정된 다수의 커널함수 중, 선택된 어느 한 커널함수가 적용된 서포트 벡터 머신을 사용하여, 기쁨, 슬픔, 긴장 및 설렘의 네 가지 감정에 대한 제3 개인감정데이터를 생성하는 단계(S915); 및 상기 제3 개인감정데이터를 기반으로 시험자의 감정을 파악하여 소정의 디스플레이에 표기하고, 이에 대해 상기 시험자로부터 기쁨, 슬픔, 긴장 및 설렘 중 어느 감정에 해당하는지 피드백을 입력받는 단계(S916);를 포함할 수 있다.Based on the predicted emotion specified for each movie scene, an error rate is calculated by dividing the number classification extracted by the support vector machine by the number of misclassifications, and the gamma value (γ) and coefficient (c) of the kernel function applied to the support vector machine ) and dimension (d) to calculate each error rate (S914); By adjusting the gamma value (γ), coefficient (c), and dimension (d) of the kernel function, using a support vector machine to which a selected kernel function is applied among a plurality of designated kernel functions, joy, sadness, tension, and excitement generating third personal emotion data for the four emotions (S915); and recognizing the tester's emotion based on the third personal emotion data, displaying the tester's emotion on a predetermined display, and receiving feedback from the tester as to which emotion among joy, sadness, tension, and excitement corresponds thereto (S916); can include

상기 피드백을 입력받는 단계(S916)의 경우 고객이 인식한 본인의 감성이 실제 감성과 다를 수 있고, 무작위로 클릭이 가능하므로 감정 유도를 통한 초기 분류기 설계를 통해 얻은 데이터와 너무 큰 차이가 나는 감성 상태의 데이터의 경우 해당 피드백은 배제할 수 있다.In the step of receiving the feedback (S916), the emotion recognized by the customer may be different from the actual emotion, and since clicking is possible at random, the emotion that differs too greatly from the data obtained through the initial classifier design through emotion induction In the case of state data, the corresponding feedback can be excluded.

상기와 같은 초기 개인감정데이터 구축단계(초기 감정 분류기; S910; S911 내지 S916)의 프로세스는 도 4에 도시된 바와 같다.The process of the above initial personal emotion data construction step (initial emotion classifier; S910; S911 to S916) is as shown in FIG. 4 .

서포트 벡터 머신(Support Vector Machine, SVM은 기계 학습의 분야 중 하나로 패턴 인식, 자료 분석을 위한 지도 학습 모델이며, 주로 분류와 회귀 분석을 위해 사용한다. 두 카테고리 중 어느 하나에 속한 데이터의 집합이 주어졌을 때, SVM 알고리즘은 주어진 데이터 집합을 바탕으로 하여 새로운 데이터가 어느 카테고리에 속할지 판단하는 비확률적 이진 선형 분류 모델을 만든다. 만들어진 분류 모델은 데이터가 사상된 공간에서 경계로 표현되는데 SVM 알고리즘은 그 중 가장 큰 폭을 가진 경계를 찾는 알고리즘이다. SVM은 선형 분류와 더불어 비선형 분류에서도 사용될 수 있다. 비선형 분류를 하기 위해서 주어진 데이터를 고차원 특징 공간으로 사상하는 작업이 필요한데, 이를 효율적으로 하기 위해 커널 트릭을 사용하기도 한다.A Support Vector Machine (SVM) is one of the fields of machine learning and is a supervised learning model for pattern recognition and data analysis, and is mainly used for classification and regression analysis. A set of data belonging to one of the two categories is given When the data is lost, the SVM algorithm creates a non-probabilistic binary linear classification model that determines which category the new data belongs to based on the given data set.The classification model created is expressed as a boundary in the space where the data is mapped. It is an algorithm to find the boundary with the largest width among them. SVM can be used in nonlinear classification as well as linear classification. For nonlinear classification, it is necessary to map the given data into a high-dimensional feature space, and to do this efficiently, a kernel You can also use tricks.

본 발명의 일실시예에 따른 감정 파악에서 SVM은 오류율의 최소화뿐만 아니라, 카테고리 사이의 일반화 능력을 최대화하기 위해 사용하였다. SVM은 데이터의 고차원적 매핑으로 데이터 분류가 용이하고, 다른 분류기와 비교하여 보다 높은 성능을 가지므로 사용하였다. 감성센싱을 통해 획득 된 생체신호의 특징들을 SVM 분류기의 입력으로 사용하였다. 또한 복잡한 형태를 보이는 결정곡선의 분리성을 향상하기 위하여 고차원으로의 매핑 변환을 해주는 커널함수를 아래와 같이 테스트를 통해 사용한다.In emotion identification according to an embodiment of the present invention, SVM is used to maximize the generalization ability between categories as well as to minimize the error rate. SVM was used because it is easy to classify data with high-dimensional mapping of data and has higher performance compared to other classifiers. The characteristics of bio-signals acquired through emotional sensing were used as inputs to the SVM classifier. In addition, in order to improve the separability of the decision curve showing a complex shape, the kernel function that converts the mapping to a higher dimension is used through the test as follows.

커널함수의 후보군은The kernel function candidates are

(1) Linear Function :

Figure 112022117850796-pat00011
(1) Linear Function:
Figure 112022117850796-pat00011

(2) Polynomial Function :

Figure 112022117850796-pat00012
(2) Polynomial Function:
Figure 112022117850796-pat00012

(3) Radial Basis Function :

Figure 112022117850796-pat00013
(3) Radial Basis Function:
Figure 112022117850796-pat00013

(4) Sigmoid Function :

Figure 112022117850796-pat00014
(4) Sigmoid Function:
Figure 112022117850796-pat00014

여기서 u는 테스트 집합, v는 서포트 벡터, γ는 정도를 조절해주는 감마 값, c는 계수, d는 차원을 나타낸다. 따라서 γ, c, d 를 조정해주어 최적의 커널 함수를 선별할 수 있다.Here, u is the test set, v is the support vector, γ is the gamma value that controls the degree, c is the coefficient, and d is the dimension. Therefore, the optimal kernel function can be selected by adjusting γ, c, and d.

커널함수를 기반으로 γ, c, d 를 조절하며 실험데이터에 최적조건의 SVM 적합함수를 선택한다. 이때 입력은 추출된 생체특징을 모두 사용한다.Based on the kernel function, adjust γ, c, and d, and select the SVM fit function that is optimal for the experimental data. At this time, all of the extracted biometric features are used as the input.

커널함수별 정확도는 아래 표 1과 같다.The accuracy of each kernel function is shown in Table 1 below.

Kernel FunctionKernel Function 정확도accuracy Linear FunctionLinear Function 72.97%72.97% Polynomial FunctionPolynomial function 73.42%73.42% Radial Basis FunctionRadial Basis Function 77.03%77.03% Sigmoid FunctionSigmoid Function 72.52%72.52%

위 표는 (1) ~ (4) 각각의 커널함수의 사용 시 최대성능을 정리하여 놓은 것이다.The above table summarizes the maximum performance when using each kernel function in (1) ~ (4).

Radial Basis 커널함수가 77.03%의 가장 좋은 성능을 나타냈다. 본 발명의 일실시예에서는 가장 높은 정확도 77.03%를 보이는 =1인 radial basis 함수를 커널함수로 사용하였다.The radial basis kernel function showed the best performance of 77.03%. In one embodiment of the present invention, the radial basis function = 1 showing the highest accuracy of 77.03% was used as a kernel function.

이후, 맥파, 피부전도도 및 산소포화도 데이터 특성을 기반으로 사용자의 감성 데이터를 분류(예측)할 수 있다.Thereafter, the emotional data of the user may be classified (predicted) based on the pulse wave, skin conductance, and oxygen saturation data characteristics.

이하, 별도의 센서 없이 대량으로 수집된 영상 데이터로부터 초기 개인감정데이터를 구축하는 단계(S900; S920 내지 S929)를 설명한다. 이러한 영상 데이터 기반 초기 개인감정데이터 구축 단계(S900; S920 내지 S929)는 상술한 센서 기반 초기 개인감정데이터 구축 단계(S900; S911 내지 S916)와 병행하여 사용될 수도 있다.Hereinafter, steps (S900; S920 to S929) of constructing initial personal emotion data from image data collected in large quantities without a separate sensor will be described. The image data-based initial personal emotion data building step (S900; S920 to S929) may be used in parallel with the sensor-based initial personal emotion data building step (S900; S911 to S916) described above.

상기 초기 개인감정데이터 구축단계(S900)는: 상기 시험자가 촬영된 소정의 개인동영상을 획득하는 단계(S920);를 포함한다.The initial personal emotion data construction step (S900) includes: acquiring a predetermined personal video of the examiner (S920);

상기 '시험자가 촬영된 소정의 개인동영상'이란, 수집된 영상데이터들을 의미하며, 센서 기반 초기 개인감정데이터 구축 단계(S900; S911 내지 S916)와 병행하여 사용될 경우에는 시험자로부터 제공받은 시험자의 개인 영상데이터일 수 있다.The 'predetermined personal video filmed by the tester' refers to the collected image data, and when used in parallel with the sensor-based initial personal emotion data construction step (S900; S911 to S916), the personal video of the tester provided by the tester. can be data.

또한, 상기 개인동영상에서 개인동영상의 마지막 시점인 제1 시점의 영상 이미지를 제1 이미지로 추출하는 단계(S921); 상기 제1 이미지에서 시험자의 얼굴이 차지하고 있는 영역을 제1 영역으로 구분하고, 상기 제1 이미지에서 상기 제1 영역이 있는 부분을 분할하여 제1-1 이미지를 추출하는 단계(S922); 상기 개인동영상을 상기 제1 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제2 시점에 상기 제1 영역 내에서 시험자의 얼굴이 벗어나지 않은 것으로 확인되면, 상기 제2 시점부터 상기 제1 시점까지를 제1 구간으로 설정하는 단계(S923); 상기 제1-1 이미지를 기초로, 상기 제1 구간의 개인동영상에 대한 감정을 파악하는 제4 개인감정데이터를 기록하는 단계(이하, '제4 개인감정데이터 기록단계'라 함; S924); 상기 개인동영상에서 제2 시점의 영상 이미지를 제2 이미지로 추출하는 단계(S925); 상기 제2 이미지에서 시험자의 얼굴이 차지하고 있는 영역을 제2 영역으로 구분하고, 상기 제2 이미지에서 상기 제2 영역이 있는 부분을 분할하여 제2-1 이미지를 추출하는 단계(S926); 상기 제2-1 이미지를 추출하는 단계 이후, 상기 개인동영상을 상기 제2 시점으로부터 시간상 역순으로 재생하여 분석한 결과, 제3 시점에 상기 제2 영역 내에서 시험자의 얼굴이 벗어나지 않은 것으로 확인되면, 상기 제3 시점부터 상기 제2 시점까지를 제2 구간으로 설정하는 단계(S927); 상기 제2-1 이미지를 기초로, 상기 제2 구간의 개인동영상에 대한 감정을 파악하는 제5 개인감정데이터를 기록하는 단계(이하, '제5 개인감정데이터 기록단계'라 함; S928); 상기 제4 개인감정데이터 기록단계에서 파악된 감정과, 제5 개인감정데이터 기록단계에서 파악된 감정을 비교하여 더 약한 감정 표현으로 분류되는 개인감정데이터를 초기 개인감정데이터로써 기록하는 단계(S929);를 더 포함할 수 있다.In addition, extracting a video image of a first view, which is the last view of the personal video, as a first image from the personal video (S921); dividing an area occupied by the tester's face in the first image into a first area, and extracting a 1-1 image by dividing a portion of the first image where the first area is located (S922); As a result of reproducing and analyzing the personal video in reverse chronological order from the first viewpoint, if it is confirmed that the tester's face does not deviate from the first region at the second viewpoint, the second viewpoint to the first viewpoint setting to 1 interval (S923); Recording fourth personal emotion data to determine the emotion for the personal video of the first section based on the 1-1 image (hereinafter, referred to as 'fourth personal emotion data recording step'; S924); extracting a video image of a second viewpoint from the personal video as a second image (S925); dividing an area occupied by the tester's face into a second area in the second image, and extracting a 2-1 image by dividing a portion of the second image where the second area is located (S926); After the step of extracting the 2-1 image, as a result of reproducing and analyzing the personal video in reverse chronological order from the second viewpoint, if it is confirmed that the tester's face is not out of the second area at the third viewpoint, Setting a period from the third time point to the second time point as a second interval (S927); Recording fifth personal emotion data for determining the emotion for the personal video in the second section based on the 2-1 image (hereinafter, referred to as 'fifth personal emotion data recording step'; S928); Comparing the emotion identified in the fourth personal emotion data recording step with the emotion identified in the fifth personal emotion data recording step, and recording personal emotion data classified as a weaker emotional expression as initial personal emotion data (S929) ; may be further included.

상기와 같은 과정을 거쳐, 개인으로부터 수집한 영상데이터로부터 상대적으로 강한 감정 표현과 상대적으로 약한 감정 표현들을 분류하고, 약한 감정표현들을 학습하도록 유도할 수 있다.Through the above process, relatively strong emotional expressions and relatively weak emotional expressions can be classified from image data collected from individuals, and weak emotional expressions can be induced to be learned.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

1 : 메인서버
2 : 고객단말기
3 : 영상인식장치
4 : 데이터베이스서버
5 : 키오스크
S100 : 영상을 촬영하는 단계
S200 : 다수의 사람을 인식하는 단계
S300 : 행동데이터를 수집하는 단계
S400 : 단체감정데이터를 동시에 파악하는 단계
S500 : 날씨데이터를 수집하는 단계
S600 : 추천 컨텐츠를 선택하는 단계
S700 : 추천 컨텐츠를 추천하는 단계
S800 : 추천 컨텐츠 출력 요청 수신 여부 판단단계
S810 : 한손 도서가 출력되는 단계
S820 : 제1 개인감정데이터 기록단계
S830 : 큐알코드 스캔 여부 판단단계
S840 : 구매단계
S841 : 인터넷 쇼핑몰의 추천 컨텐츠 구매 페이지로 이동하는 단계
S842 : 지정공간의 결제단말기로 구매 요청 메세지가 송신되는 단계
S850 : 제2 개인감정데이터 기록단계
S860 : 추천 컨텐츠의 감정별 가중치를 갱신하는 단계
S900 : 초기 개인감정데이터 구축단계
S911 : 영화 장면을 송출하는 단계
S912 : 시험자의 피부전도도, 산소포화도 및 맥파를 측정하는 단계
S913 : 서포트 벡터 머신(Support Vector Machine, SVM)에 입력하는 단계
S914 : 서포트 벡터 머신에 적용된 커널함수의 오류율을 산출하는 단계
S915 : 제3 개인감정데이터를 생성하는 단계
S916 : 피드백을 입력받는 단계
S920 : 개인동영상을 획득하는 단계
S921 : 제1 시점의 영상 이미지를 제1 이미지로 추출하는 단계
S922 : 제1-1 이미지를 추출하는 단계
S923 : 제2 시점부터 제1 시점까지를 제1 구간으로 설정하는 단계
S924 : 제4 개인감정데이터 기록단계
S925 : 제2 시점의 영상 이미지를 제2 이미지로 추출하는 단계
S926 : 제2-1 이미지를 추출하는 단계
S927 : 제3 시점부터 제2 시점까지를 제2 구간으로 설정하는 단계
S928 : 제5 개인감정데이터 기록단계
S929 : 더 약한 감정 표현으로 분류되는 개인감정데이터를 초기 개인감정데이터로써 기록하는 단계
S1 : 제1 감정모델을 생성하는 단계
S2 : 강한 감정표현과 약한 감정표현을 분류하는 단계
S3 : 제2 감정 영상 세트를 생성하는 단계
S4 : 제2 감정모델을 생성하는 단계
1 : Main server
2: Customer terminal
3: image recognition device
4 : Database server
5 : Kiosk
S100: Step of taking a video
S200: Recognizing multiple people
S300: Step of collecting behavioral data
S400: step of simultaneously grasping collective emotion data
S500: Step of collecting weather data
S600: Step to select recommended content
S700: Step of recommending recommended content
S800: Determining whether to receive a request for outputting recommended content
S810: step of outputting a one-handed book
S820: First Personal Emotion Data Recording Step
S830: Step to determine whether to scan the QR code
S840: purchase stage
S841: Step to move to the recommended content purchase page of the Internet shopping mall
S842: Step of sending a purchase request message to the payment terminal in the designated space
S850: Second Personal Emotion Data Recording Step
S860: Updating the weight for each emotion of the recommended content
S900: initial personal emotion data construction step
S911: step of transmitting movie scenes
S912: step of measuring tester's skin conductivity, oxygen saturation and pulse wave
S913: Input to Support Vector Machine (SVM)
S914: Calculating the error rate of the kernel function applied to the support vector machine
S915: Step of generating third personal emotion data
S916: step of receiving feedback
S920: Acquisition of personal video
S921: Step of extracting a video image of a first viewpoint as a first image
S922: Step of extracting the 1-1st image
S923: Step of setting the second time point to the first time point as the first interval
S924: 4th Personal Emotion Data Recording Step
S925: Step of extracting a video image of a second viewpoint as a second image
S926: Step of extracting the 2-1st image
S927: Step of setting the third time point to the second time point as the second interval
S928: 5th Personal Emotion Data Recording Step
S929: Step of recording personal emotion data classified as weaker emotional expression as initial personal emotion data
S1: Step of generating a first emotion model
S2: Step of classifying strong emotional expressions and weak emotional expressions
S3: generating a second emotion image set
S4: Step of generating a second emotion model

Claims (3)

다수의 사람이 유동하는 공간(이하, '지정공간'이라 함)에 설치되는 영상인식장치로 영상을 촬영하는 단계;
촬영된 영상으로부터 다수의 사람을 인식하는 단계;
인식된 다수의 사람의 감정 상태(이하, '단체감정데이터'라 함)를 동시에 파악하는 단계;
현재 날씨데이터를 수집하는 단계;
상기 단체감정데이터 및 현재 날씨데이터를 기반으로, 상기 지정공간에 대응되는 추천 컨텐츠를 선택하는 단계; 및
상기 지정공간에 대해 상기 추천 컨텐츠를 추천하는 단계;를 포함하고,
상기 추천 컨텐츠는: 소정의 도서로 선택되고,
상기 지정공간에 배치된 소정의 키오스크에 추천 컨텐츠 출력 요청이 수신(입력)된 경우, 상기 추천 컨텐츠의 일부 내용을 발췌한 한손 도서가 출력되는 단계;
상기 키오스크에 구비된 맥박수분센서를 통해, 상기 한손 도서를 출력하는 사람의 피부전도도, 산소포화도 및 맥파를 측정하여 개인감정데이터를 기록하는 단계(이하, '제1 개인감정데이터 기록단계'라 함);
상기 한손 도서에 인쇄된 큐알코드를 스캔했을 때, 인터넷 쇼핑몰의 추천 컨텐츠 구매 페이지로 이동하거나, 상기 지정공간의 결제단말기로 구매 요청 메세지가 송신되는 구매단계;
상기 구매단계에서 지정공간의 결제단말기로 구매 요청 메세지가 송신된 경우, 추천 컨텐츠 구매자의 영상을 촬영하여 개인감정데이터를 기록하는 단계(이하, '제2 개인감정데이터 기록단계'라 함); 및
누적된 개인감정데이터를 기반으로, 상기 추천 컨텐츠의 감정별 가중치를 갱신하는 단계;를 포함하는, 인공지능 기반 장소 연계 안면 인식 정보 생성 방법
photographing an image with an image recognition device installed in a space where a plurality of people move (hereinafter, referred to as a 'designated space');
Recognizing a plurality of people from a photographed image;
Simultaneously grasping the recognized emotional states of a plurality of people (hereinafter, referred to as 'group emotion data');
Collecting current weather data;
selecting recommended content corresponding to the designated space based on the group emotion data and current weather data; and
Including; recommending the recommended content for the designated space;
The recommended content is: selected as a predetermined book,
When a request for outputting recommended content is received (input) to a predetermined kiosk disposed in the designated space, outputting a one-handed book extracted from a part of the recommended content;
Recording personal emotion data by measuring skin conductivity, oxygen saturation, and pulse wave of the person printing the one-handed book through the pulse rate moisture sensor provided in the kiosk (hereinafter, referred to as 'first personal emotion data recording step') );
a purchase step of moving to a recommended content purchase page of an Internet shopping mall or sending a purchase request message to a payment terminal in the designated space when the QR code printed on the one-handed book is scanned;
When a purchase request message is transmitted to the payment terminal in the designated space in the purchase step, capturing an image of the recommended content buyer and recording personal emotion data (hereinafter, referred to as 'second personal emotion data recording step'); and
Based on the accumulated personal emotion data, updating the weight for each emotion of the recommended content; artificial intelligence-based place-linked face recognition information generation method including
삭제delete 청구항 1항에 있어서,
상기 영상으로부터 감정 상태를 판단하기 위하여, 소정의 제1 감정 영상 세트로부터 제1 감정모델을 생성하는 단계;
상기 제1 감정모델로부터, 소정의 감정 분류별로 강한 감정표현과 약한 감정표현을 분류하는 단계;
상기 제1 감정 영상 세트에서 강한 감정표현에 해당하는 감정 영상을 제외하여 제2 감정 영상 세트를 생성하는 단계; 및
상기 제2 감정 영상 세트로부터 제2 감정모델을 생성하는 단계;를 포함하여,
상기 제2 감정모델을 기반으로 상기 단체감정데이터를 파악하는, 인공지능 기반 장소 연계 안면 인식 정보 생성 방법
The method of claim 1,
generating a first emotion model from a predetermined first emotion image set to determine an emotional state from the images;
classifying strong emotional expressions and weak emotional expressions for each predetermined emotion classification from the first emotion model;
generating a second emotion image set by excluding emotion images corresponding to strong emotional expressions from the first emotion image set; and
Generating a second emotion model from the second emotion image set; Including,
Artificial intelligence-based place-linked face recognition information generation method for identifying the group emotion data based on the second emotion model
KR1020220146816A 2022-11-07 2022-11-07 Artificial intelligence-based place-linked facial recognition information generation method, device and system KR102493790B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220146816A KR102493790B1 (en) 2022-11-07 2022-11-07 Artificial intelligence-based place-linked facial recognition information generation method, device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220146816A KR102493790B1 (en) 2022-11-07 2022-11-07 Artificial intelligence-based place-linked facial recognition information generation method, device and system

Publications (1)

Publication Number Publication Date
KR102493790B1 true KR102493790B1 (en) 2023-01-31

Family

ID=85108949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220146816A KR102493790B1 (en) 2022-11-07 2022-11-07 Artificial intelligence-based place-linked facial recognition information generation method, device and system

Country Status (1)

Country Link
KR (1) KR102493790B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102232957B1 (en) 2020-12-22 2021-03-26 주식회사 채움씨앤아이 Library member customized book recommendation kiosk device and system using emotion recognition
KR102371119B1 (en) 2017-11-17 2022-03-07 한국전자기술연구원 Analysis Method for Forward Concentration using a Facial Expression Recognition Technology
KR102372017B1 (en) 2018-11-27 2022-03-07 에스케이텔레콤 주식회사 Apparatus for recommending contents based on facial expression, method thereof and computer recordable medium storing program to perform the method
KR20220030473A (en) * 2020-09-01 2022-03-11 주식회사 인생노트에이아이 A Weather-based emotion index provision method and a device therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102371119B1 (en) 2017-11-17 2022-03-07 한국전자기술연구원 Analysis Method for Forward Concentration using a Facial Expression Recognition Technology
KR102372017B1 (en) 2018-11-27 2022-03-07 에스케이텔레콤 주식회사 Apparatus for recommending contents based on facial expression, method thereof and computer recordable medium storing program to perform the method
KR20220030473A (en) * 2020-09-01 2022-03-11 주식회사 인생노트에이아이 A Weather-based emotion index provision method and a device therefor
KR102232957B1 (en) 2020-12-22 2021-03-26 주식회사 채움씨앤아이 Library member customized book recommendation kiosk device and system using emotion recognition

Similar Documents

Publication Publication Date Title
US10019653B2 (en) Method and system for predicting personality traits, capabilities and suggested interactions from images of a person
Zhu et al. Human identification for activities of daily living: A deep transfer learning approach
Sonawane et al. Review of automated emotion-based quantification of facial expression in Parkinson’s patients
Kaboli et al. Humanoids learn touch modalities identification via multi-modal robotic skin and robust tactile descriptors
Sharifi et al. Experimental and numerical diagnosis of fatigue foot using convolutional neural network
CN113396422A (en) Machine learning model for training perceptual tasks using biometric data
KR20200039365A (en) Electronic device and Method for controlling the electronic devic thereof
JP2022120775A (en) On-device activity recognition
CN112364912A (en) Information classification method, device, equipment and storage medium
CN112380924A (en) Depression tendency detection method based on facial micro-expression dynamic recognition
Wu et al. Multi-modal emotion identification fusing facial expression and EEG
Karczmarek et al. Linguistic descriptors in face recognition
Ugail Secrets of a smile? Your gender and perhaps your biometric identity
KR102493790B1 (en) Artificial intelligence-based place-linked facial recognition information generation method, device and system
Goyal et al. Minimum Annotation identification of facial affects for Video Advertisement
Nieves Delgado Race and statistics in facial recognition: Producing types, physical attributes, and genealogies
Ma et al. Work engagement recognition in smart office
Adibuzzaman et al. In situ affect detection in mobile devices: a multimodal approach for advertisement using social network
Vasani et al. Introduction to Emotion Detection and Predictive Psychology in the Age of Technology
Hwooi et al. Monitoring application-driven continuous affect recognition from video frames
Modi et al. Role of Eye Tracking in Human Computer Interaction
Rashmi et al. Facial emotion detection using thermal and visual images based on deep learning techniques
Badajena et al. Comparative analysis of full training set and cross-validation for machine learning approach to run smart wheelchair
KR102574021B1 (en) Method, apparatus and system for generating responsive image content based on personalized images extracted from image data history using artificial intelligence model
Kumar et al. A Deep Learning based System for Detecting Stress Level and Recommending Movie or Music

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant