KR102497694B1 - System and Method for correcting facial asymmetry based expression training using correction mirror - Google Patents

System and Method for correcting facial asymmetry based expression training using correction mirror Download PDF

Info

Publication number
KR102497694B1
KR102497694B1 KR1020200141774A KR20200141774A KR102497694B1 KR 102497694 B1 KR102497694 B1 KR 102497694B1 KR 1020200141774 A KR1020200141774 A KR 1020200141774A KR 20200141774 A KR20200141774 A KR 20200141774A KR 102497694 B1 KR102497694 B1 KR 102497694B1
Authority
KR
South Korea
Prior art keywords
image
facial
correction
mirror
training
Prior art date
Application number
KR1020200141774A
Other languages
Korean (ko)
Other versions
KR20220057008A (en
Inventor
이세호
Original Assignee
이세호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이세호 filed Critical 이세호
Priority to KR1020200141774A priority Critical patent/KR102497694B1/en
Publication of KR20220057008A publication Critical patent/KR20220057008A/en
Application granted granted Critical
Publication of KR102497694B1 publication Critical patent/KR102497694B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/0079Devices for viewing the surface of the body, e.g. camera, magnifying lens using mirrors, i.e. for self-examination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/025Exercising apparatus specially adapted for particular parts of the body for the head or the neck
    • A63B23/03Exercising apparatus specially adapted for particular parts of the body for the head or the neck for face muscles
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation

Abstract

본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 사용자의 안면 비대칭 상태를 판단하여 사용자의 안면 근골격과 가장 유사한 균형 모델의 표정을 목표로 하는 표정 트레이닝을 수행하고, 제휴업체를 통해 사용자의 트레이닝 수행에 대한 코칭서비스를 제공하도록 해 주는 기술에 관한 것이다.
본 발명에 의하면, 사용자 단말을 통해 교정거울과 연동하여 사용자 얼굴의 비대칭 위치와 안면 비대칭 교정을 위한 트레이닝 정보를 거울면을 통해 표현함으로써, 사용자가 거울을 보면서 자신의 얼굴 비대칭 상태를 자연스럽게 인지한 상태로 안면 비대칭 교정 트레이닝을 수행할 수 있다.
또한, 제휴업체를 통해 사용자의 트레이닝 수행 상태에 대한 코칭 서비스를 제공할 수 있도록 함으로써, 정확한 표정 트레이닝을 수행할 수 있다.
The present invention determines the user's facial asymmetry through analysis of user's facial images of various facial expressions, performs facial expression training targeting the facial expression of the balance model most similar to the user's facial musculoskeletal system, and performs training for the user through affiliated companies. It is about the technology that enables the provision of coaching services for
According to the present invention, by expressing training information for the asymmetric position of the user's face and facial asymmetry correction through a mirror surface in conjunction with a correction mirror through a user terminal, a state in which the user naturally recognizes the asymmetric state of his or her face while looking in the mirror. Facial asymmetry correction training can be performed.
In addition, accurate facial expression training can be performed by providing a coaching service for the user's training performance through an affiliated company.

Description

교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템 및 그 서비스 방법{System and Method for correcting facial asymmetry based expression training using correction mirror}System and method for correcting facial asymmetry based expression training using correction mirror}

본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 사용자의 안면 비대칭 상태를 판단하여 사용자의 안면 근골격과 가장 유사한 균형 모델의 표정을 목표로 하는 표정 트레이닝을 수행하고, 제휴업체를 통해 사용자의 트레이닝 수행에 대한 코칭서비스를 제공하도록 해 주는 기술에 관한 것이다.The present invention determines the user's facial asymmetry through analysis of user's facial images of various facial expressions, performs facial expression training targeting the facial expression of the balance model most similar to the user's facial musculoskeletal system, and performs training for the user through affiliated companies. It is about the technology that enables the provision of coaching services for

안면의 움직임은 안면을 구성하는 수 많은 근육이 22개의 뼈조각과 서로 연결되어 상호작용하게 되는데 안면 비대칭은 이러한 근골격계의 복합적인 원인에 의한 결과로서 나타나는 현상으로 얼굴 비대칭으로 나타난다. The movement of the face interacts with the numerous muscles that make up the face by being connected to 22 bone pieces. Facial asymmetry is a phenomenon that appears as a result of these complex causes of the musculoskeletal system, and it appears as facial asymmetry.

이러한 안면 비대칭의 주원인은 개인의 생활 습관(저작, 수면자세, 손으로 턱괴기, 상하반신의 자세 불균형)과 매우 밀접하게 연관되어 있으며 이러한 습관은 오랜 시간동안 안면의 근골격계에 영향을 주게 되어 안면 근육의 수축이완 및 긴장, 사용 유무 그리고 그 근육에 의한 안면과 두상의 골격의 변화 등으로 나타난다. The main cause of such facial asymmetry is very closely related to an individual's lifestyle (masticating, sleeping posture, resting the chin with the hand, postural imbalance of the upper and lower body), and these habits affect the musculoskeletal system of the face for a long time, and thus facial muscles It is manifested in the contraction relaxation and tension of the muscle, whether it is used or not, and the changes in the skeletal structure of the face and head caused by the muscle.

또한 안면 비대칭의 결과는 턱관절의 균형과 움직임에 매우 깊은 영향을 줄 수 있다.Also, the consequences of facial asymmetry can have a very profound effect on the balance and movement of the temporomandibular joint.

턱관절은 경락체계와 뇌의 활동을 조절하는 부위로서 턱 관절이 뇌 활동 치료의 근본이 되기도 하는데 그 이유는 턱관절 주변으로는 수많은 신경과 혈관들이 지나가기 때문에 얼굴 비대칭이 발생할 경우 신경체계의 밸런스가 깨지면서 많은 문제점들을 야기할 수 있기 때문이다.The temporomandibular joint is a part that regulates the meridian system and brain activity, and the temporomandibular joint is also the root of brain activity treatment. The reason is that numerous nerves and blood vessels pass around the temporomandibular joint, so when facial asymmetry occurs, it becomes the balance of the nervous system. This is because breaking can cause many problems.

이를 방치할 경우 만성두통, 부종, 혈색변화, 어깨걸림, 어지러움증, 구토, 저작의 어려움, 호르몬 분비이상과 같은 신경과 근육계통의 질환을 발생시키기 때문에 조기에 안면 불균형 현상을 인식해서 원인을 해결하고 그 경과 진행을 방지할 필요가 있다.If left unattended, it can cause chronic headaches, edema, color changes, shoulder hangs, dizziness, vomiting, difficulty in chewing, and disorders of the nervous and muscular system, such as abnormal secretion of hormones. It is necessary to prevent its progress.

또한, 안면 비대칭은 대인관계에 좋지 않은 인상을 심어줄 수 있을 뿐 만 아니라 외모적 스트레스와 콤플렉스가 되기 때문에 사회적 관계에 있어서 자기효능감에도 좋지 않은 영향을 줄 수 있다.In addition, facial asymmetry can not only give a bad impression on interpersonal relationships, but also negatively affect self-efficacy in social relationships because it causes appearance stress and complexes.

이는 자신감을 저하시키는 요인으로서, 자신의 의사를 정확히 상대방에게 전달하거나 상대방을 설득하는데 있어서 심리적 소극성으로 이어져 주도적인 감정표현과 자립심의 영역에도 영향을 미치고 자신의 사회적 영향력을 제한하거나 축소시켜 환경에 종속되는 방향으로 가기 쉬워진다.This is a factor that lowers self-confidence, leading to psychological passivity in accurately conveying one's intentions to the other person or persuading the other person, affecting the area of leading emotional expression and self-reliance, and limiting or reducing one's social influence to subordinate to the environment. The easier it is to go in that direction.

이러한 결과로 인해 안면 비대칭은 질환적인 문제에만 국한되지 않고 개인의 사회성 및 자기효능감에 관련된 삶의 심리적 이슈와도 매우 밀접하게 관련되어 있어 이를 해결해야 할 필요가 있다. Due to these results, facial asymmetry is not limited to disease problems, but is also very closely related to psychological issues in life related to individual sociability and self-efficacy, so it is necessary to solve it.

이를 위해 안면 비대칭 관련 시술이나 수술들의 방법들이 이용되고 있으나, 현재 이용되는 안면 비대칭 관련 시술이나 수술적인 방법들은 병원에서 전문적인 장비들을 이용하는 것으로 많은 비용이 소요되는 단점이 있다. To this end, facial asymmetry-related procedures or surgical methods have been used, but currently used facial asymmetry-related procedures or surgical methods use specialized equipment in hospitals, and thus have the disadvantage of requiring a lot of cost.

이에, 현재 온라인에서 공개적으로 제공되는 안면 교정 트레이닝을 수행하는 방법이 있을 수 있으나, 이는 범용적인 것으로 자신의 안면 비균형 상태를 기반으로 한 맞춤형 트레이닝이 불가능한 단점이 있다. 또한, 이러한 서비스는 사용자가 자신이 현재 정확하게 트레이닝을 수행하고 있는지를 확인할 수 없는 단점이 있다. Accordingly, there may be a method for performing facial correction training that is currently openly provided online, but this is general-purpose and has a disadvantage in that customized training based on one's own facial imbalance is impossible. In addition, this service has a disadvantage in that the user cannot check whether he or she is currently performing training accurately.

1. 일본공개특허 제2019-524397호 (명칭 : 안면 비대칭을 치료하기 위한 치열 교정 장치를 실현하는 방법)1. Japanese Patent Laid-open Publication No. 2019-524397 (Title: Method for realizing an orthodontic appliance for treating facial asymmetry) 2. 한국공개특허 제10-2015-0059629호 (명칭 : 인체의 균형 상태를 파악할 수 있는 거울)2. Korean Patent Publication No. 10-2015-0059629 (Name: Mirror that can grasp the balance of the human body)

이에, 본 발명은 상기한 사정을 감안하여 창출된 것으로, 사용자 단말을 통해 교정거울과 연동하여 사용자 얼굴의 비대칭 위치와 안면 비대칭 교정을 위한 트레이닝 정보를 거울면을 통해 표현함으로써, 사용자가 거울을 보면서 자신의 얼굴 비대칭 상태를 자연스럽게 인지한 상태에서 안면 비대칭 교정 트레이닝을 수행함은 물론, 제휴업체를 통해 사용자의 트레이닝 수행 상태한 코칭 서비스를 제공할 수 있도록 해 주는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템 및 그 서비스 방법을 제공함에 기술적 목적이 있다. Therefore, the present invention was created in view of the above circumstances, and by expressing training information for the asymmetric position of the user's face and facial asymmetry correction through a mirror surface in conjunction with a correction mirror through a user terminal, so that the user looks in the mirror Facial asymmetry correction based on facial expression training using a corrective mirror that enables not only to perform facial asymmetry correction training while naturally recognizing one's own facial asymmetry, but also to provide coaching services for the user's training performance through affiliated companies. The technical purpose is to provide a system and its service method.

상기 목적을 달성하기 위한 본 발명의 일측면에 따르면, 격자패턴의 각 교차점 위치에 RGB LED가 배치되는 거울면과, 사용자 단말과 통신하여 사용자 단말로부터 수신된 제어신호를 근거로 격자패턴 및 RGB LED가 출력되도록 제어하는 전자 모듈 및, 상기 거울면의 일측에 사용자 단말을 거치하기 위한 거치대를 포함하여 구성되는 교정거울과, 안면 교정 어플리케이션의 실행에 따라 교정거울과 통신하여 거울면을 통해 안면 비대칭 트레이닝 정보를 제공하되, 교정거울에 표현된 기준라인이 포함된 기준라인 얼굴영상과 무표정을 포함한 다양한 표정 영상을 촬영하여 서비스 서버로 제공하고, 서비스 서버에 의해 매칭된 코칭 서비스 단말과 통신하여 트레이닝 정보를 교정거울을 통해 표현함과 더불어, 이에 대응되는 사용자 얼굴영상을 포함한 트레이닝 피드백정보를 코칭 서비스 단말로 전송하고, 이에 대해 코칭 서비스 단말로부터 수신되는 코칭정보를 출력하는 사용자 단말, 사용자 단말로부터 수신된 기준라인 얼굴 영상을 근거로 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하고, 기준라인에 대응되는 중력 기준의 중력 라인을 생성하여 중력 라인과 양쪽 각 부위 포인트간의 거리와 부위 포인트간 거리를 근거로 비대칭 속성값을 산출하며, 상기 각 중력라인과 기준라인간의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정함과 더불어, 표정 영상을 근거로 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 표정 영상을 근거로 분석된 안면 움직임을 근거로 표준 모델의 표정을 목표로하는 트레이닝 스케쥴을 생성하여 해당 사용자 단말과 매칭된 코칭 서비스 단말로 제공하는 서비스 서버 및, 서비스 서버로부터 제공받아 설치된 코칭 어플리케이션에 서비스 서버로부터 수신된 해당 사용자의 표정 트레이닝 스케쥴을 적용하고, 서비스 서버에 의해 매칭된 사용자 단말로 트레이닝 정보를 전송함과 더불어, 사용자단말로부터 수신된 트레이닝 피드백정보에 대응되는 코칭정보를 제공하는 코칭 서비스 단말을 포함하여 구성되고, 상기 사용자 단말은 교정거울의 거치대에 거치된 상태에서 거울면을 주시하는 얼굴 상태의 제1 교정영상과, 사용자 단말을 주시하는 얼굴 상태의 제2 교정영상을 촬영하고, 하기 수학식을 이용하여 제1 교정영상을 거울면으로 표시되는 얼굴 영상인 기준라인 얼굴영상을 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템이 저장된다.

Figure 112022108989665-pat00015
여기서, X 와 Y 는 보정된 각 픽셀의 위치좌표, X0 와 Y0 는 제1 교정영상의 우측 첫 위치 좌표, X1 과 Y1 은 제2 교정영상의 우측 첫 위치 좌표, σ는 카메라의 고유 왜곡보정율, θ 는 제1 교정영상에서 사용자 얼굴의 왼쪽과 오른쪽 눈썹의 상단을 연결한 직선과 수평선 대비 기울기이다.According to one aspect of the present invention for achieving the above object, the grid pattern and the RGB LEDs are based on a mirror surface on which RGB LEDs are disposed at each intersection of the grid pattern and a control signal received from the user terminal through communication with the user terminal. A correction mirror configured to include an electronic module for controlling output and a cradle for mounting a user terminal on one side of the mirror surface, and facial asymmetry training through the mirror surface by communicating with the correction mirror according to the execution of the face correction application. Information is provided, but a reference line face image including the reference line expressed on the correction mirror and various expression images including neutral expressions are taken and provided to the service server, and the training information is provided by communicating with the coaching service terminal matched by the service server. In addition to expressing through a correction mirror, training feedback information including a corresponding user face image is transmitted to the coaching service terminal, and the user terminal outputs the coaching information received from the coaching service terminal, and the reference line received from the user terminal. Based on the face image, a plurality of points of each part including eyes, ears, and mouth are extracted, and a gravity line of gravity reference corresponding to the reference line is created based on the distance between the gravity line and each part point on both sides and between the part points The asymmetric attribute value is calculated, and the asymmetric type is determined based on the slope and direction of the slope between each gravity line and the reference line, and the facial structure most similar to the user's face in the pre-registered standard model based on the facial expression image A service server and a service server that determine a standard model of , generate a training schedule targeting the facial expression of the standard model based on the analyzed facial motion based on the facial expression image, and provide the training schedule to the coaching service terminal matched with the corresponding user terminal. Applying the user's facial expression training schedule received from the service server to the coaching application installed and provided from, and transmitting the training information to the user terminal matched by the service server, as well as corresponding to the training feedback information received from the user terminal Coaching service providing coaching information It is configured to include a terminal, wherein the user terminal captures a first correction image of a face state looking at the mirror surface and a second correction image of a face state watching the user terminal while being mounted on a cradle of a correction mirror, A face asymmetry correction system based on facial expression training using a correction mirror is stored, characterized in that a reference line face image, which is a face image displayed as a mirror surface, is generated using the following equation.
Figure 112022108989665-pat00015
Here, X and Y are the position coordinates of each corrected pixel, X0 and Y0 are the coordinates of the first right position of the first calibration image, X1 and Y1 are the coordinates of the first right position of the second calibration image, and σ is the camera's unique distortion correction rate. , θ is the slope of the line connecting the tops of the left and right eyebrows of the user's face in the first correction image and the horizontal line.

또한, 상기 목적을 달성하기 위한 본 발명의 또 다른 일측면에 따르면, 격자 패턴과 격자 패턴의 교차점에 RGB LED가 구비된 교정거울과 통신하는 사용자 단말을 이용하여 안면 비대칭 트레이닝 정보를 제공하고, 코칭 서비스 단말을 통해 사용자 단말을 통해 수행되는 트레이닝 상태에 대한 코칭정보를 제공하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법에 있어서, 사용자 단말에서 교정거울로 표현되는 격자 패턴상에 얼굴 촬영을 위한 기준라인이 표시되도록 제어함과 더불어, 교정거울의 기준라인을 포함한 얼굴 영상과, 무표정을 포함한 다양한 표정 영상을 촬영하여 서비스 서버로 전송하는 제1 단계와, 서비스 서버에서 기준라인 얼굴영상을 분석하여 안면 비대칭 속성을 추출하고, 기준라인 얼굴영상에 중력 기준의 중력라인을 기준라인에 대응되는 위치에 설정하여 중력라인과 기준라인간의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하는 제2 단계, 서비스 서버에서 표정영상을 분석하여 기 등록된 표준 모델에서 사용자 안면 특성과 가장 유사한 안면 구조의 표준 모델을 결정하는 제3 단계, 서비스 서버에서 표정 영상을 근거로 사용자 안면 움직임을 분석하는 제4 단계, 서비스 서버에서 비대칭 타입과 안면 움직임을 근거로 표준 모델의 표정을 목표로 하는 트레이닝 스케쥴을 생성하는 제5 단계 및, 서비스 서버에서 사용자 단말로 코칭정보를 제공하기 위한 코칭 서비스 단말을 매칭시키고, 매칭된 코칭 서비스 단말로 해당 사용자의 트레이닝 스케쥴을 전송하여 매칭된 사용자 단말과 코칭 서비스 단말간 통신을 통해 안면 교정 트레이닝을 수행하되, 사용자 단말은 교정거울을 통해 거울면에 비치는 자신의 얼굴상에 비대칭 속성 및 트레이닝 정보에 대응되는 위치의 RGB LED를 구동하는 제6 단계를 포함하여 구성되고, 상기 제1 단계는 서비스 서버에서 상기 사용자 단말의 카메라를 통해 교정거울을 주시하는 얼굴 상태의 제1 교정영상을 획득하는 단계와, 사용자 단말의 카메라를 통해 사용자 단말을 주시하는 얼굴 상태의 제2 교정영상을 획득하는 단계 및, 사용자 단말에서 제1 교정영상을 하기 수학식에 적용하여 거울면으로 표시되는 얼굴 영상 형태의 기준라인 얼굴영상을 생성하는 단계를 포함하여 구성되는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법이 제공된다.

Figure 112022108989665-pat00016
여기서, X 와 Y 는 보정된 각 픽셀의 위치좌표, X0 와 Y0 는 제1 교정영상의 우측 첫 위치 좌표, X1 과 Y1 은 제2 교정영상의 우측 첫 위치 좌표, σ는 사용자 단말 카메라의 고유 왜곡보정율, θ 는 제1 교정영상에서 사용자 얼굴의 왼쪽과 오른쪽 눈썹의 상단을 연결한 직선과 수평선 대비 기울기이다.In addition, according to another aspect of the present invention for achieving the above object, facial asymmetric training information is provided using a user terminal communicating with a calibration mirror equipped with RGB LEDs at the intersection of the grid pattern and the grid pattern, and coaching In the facial asymmetry correction service method based on facial expression training using a correction mirror that provides coaching information on a training state performed through a user terminal through a service terminal, the user terminal takes a picture of the face on a grid pattern represented by a correction mirror. A first step of photographing and transmitting a face image including the reference line of the correction mirror and various expression images including expressionless expressions to the service server, and analyzing the reference line face image in the service server. The second step of determining the asymmetric type based on whether or not and the direction of the inclination between the gravity line and the reference line by extracting the facial asymmetry attribute and setting the gravity line of the gravity reference in the reference line face image at a position corresponding to the reference line , The third step of analyzing the facial expression image in the service server and determining the standard model of the facial structure most similar to the user's facial characteristics from the previously registered standard models, and the fourth step of analyzing the user's facial movement based on the facial expression image in the service server , A fifth step of generating a training schedule targeting the facial expression of the standard model based on the asymmetric type and facial movement in the service server, and matching the coaching service terminal for providing coaching information to the user terminal in the service server, and matching The training schedule of the corresponding user is transmitted to the coaching service terminal, and facial correction training is performed through communication between the matched user terminal and the coaching service terminal. It is configured to include a sixth step of driving an RGB LED at a position corresponding to the training information, and the first step is to obtain a first correction image of a face looking at a correction mirror through a camera of the user terminal in a service server. The step of doing, and the user through the camera of the user terminal Acquiring a second correction image of a face state watching the terminal, and generating a reference line face image in the form of a face image displayed as a mirror surface by applying the first correction image to the following equation in the user terminal There is provided a facial asymmetry correction service method based on expression training using a correction mirror, characterized in that configured.
Figure 112022108989665-pat00016
Here, X and Y are the position coordinates of each corrected pixel, X0 and Y0 are the coordinates of the first right position of the first calibration image, X1 and Y1 are the coordinates of the first right position of the second calibration image, and σ is the inherent distortion of the user terminal camera The correction rate, θ, is the slope of a line connecting the tops of the left and right eyebrows of the user's face and the horizontal line in the first correction image.

본 발명에 의하면, 사용자 단말을 통해 교정거울과 연동하여 사용자 얼굴의 비대칭 위치와 안면 비대칭 교정을 위한 트레이닝 정보를 거울면을 통해 표현함으로써, 사용자가 거울을 보면서 자신의 얼굴 비대칭 상태를 자연스럽게 인지한 상태로 안면 비대칭 교정 트레이닝을 수행할 수 있다.According to the present invention, by expressing training information for the asymmetric position of the user's face and facial asymmetry correction through a mirror surface in conjunction with a correction mirror through a user terminal, a state in which the user naturally recognizes the asymmetric state of his or her face while looking in the mirror. Facial asymmetry correction training can be performed.

또한, 제휴업체를 통해 사용자의 트레이닝 수행 상태에 대한 코칭 서비스를 제공할 수 있도록 함으로써, 정확한 표정 트레이닝을 수행할 수 있다.In addition, accurate facial expression training can be performed by providing a coaching service for the user's training performance through an affiliated company.

도1은 본 발명의 제1 실시예에 따른 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템의 개략적인 구성을 도시한 도면.
도2는 도1에 도시된 교정거울(100)의 구성을 설명하기 위한 도면.
도3은 도1에 도시된 사용자 단말(200)의 구성을 기능적으로 분리하여 나타낸 도면.
도4는 도1에 도시된 서비스 서버(400)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도.
도5는 도1에 도시된 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템의 동작을 설명하기 위한 도면.
도6은 도5의 동작에서 교정거울(100)의 거울면(110)을 통해 출력되는 표현상태를 예시한 도면.
도7은 도5에 도시된 기준 라인 얼굴 영상 생성 과정(ST100)을 상세히 설명하기 위한 도면.
도8은 도7의 동작에서 동기화 이미지 생성과정을 예시한 도면.
도9는 도5에 도시된 안면 비대칭 타입 결정 과정(ST200)을 상세히 설명하기 위한 도면.
도10은 도9에서 비대칭 속성값을 추출하는 방법을 설명하기 위한 도면.
도11은 도9에서 비대칭 타입 결정 방법(ST300)을 설명하기 위한 도면.
1 is a diagram showing a schematic configuration of a facial asymmetry correction system based on expression training using a correction mirror according to a first embodiment of the present invention.
Fig. 2 is a view for explaining the configuration of the correcting mirror 100 shown in Fig. 1;
FIG. 3 is a functionally separated view showing the configuration of the user terminal 200 shown in FIG. 1;
4 is a block diagram showing the internal configuration of the service server 400 shown in FIG. 1 by functionally separating it;
5 is a view for explaining the operation of the facial asymmetry correction system based on facial expression training using a correction mirror shown in FIG. 1;
6 is a diagram illustrating an expression state output through the mirror surface 110 of the correction mirror 100 in the operation of FIG. 5;
FIG. 7 is a diagram for explaining in detail a reference line face image generation process (ST100) shown in FIG. 5;
8 is a diagram illustrating a process of generating a synchronization image in the operation of FIG. 7;
FIG. 9 is a diagram for explaining in detail a facial asymmetry type determination process (ST200) shown in FIG. 5;
10 is a diagram for explaining a method of extracting an asymmetric attribute value in FIG. 9;
11 is a diagram for explaining an asymmetric type determination method (ST300) in FIG. 9;

본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The embodiments described in the present invention and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, so the scope of the present invention is limited to the embodiments and drawings described in the text. should not be construed as being limited by That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as being consistent with meanings in the context of related art, and cannot be interpreted as having ideal or excessively formal meanings that are not clearly defined in the present invention.

도1은 본 발명의 제1 실시예에 따른 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a facial asymmetry correction system based on facial expression training using a correction mirror according to a first embodiment of the present invention.

도1을 참조하면, 본 발명에 따른 교정거울을 이용한 표정 트레이닝 기반의 안면 교정 시스템은, 교정거울(100)과, 이 교정거울(100)과 통신하여 교정거울(100)의 동작을 제어하는 사용자 단말(200), 안면 교정 트레이닝에 대한 코칭 서비스를 제공하는 코칭 서비스 단말(300) 및, 서비스 서버(400)를 포함한다.Referring to FIG. 1, the facial correction system based on expression training using a correction mirror according to the present invention includes a correction mirror 100 and a user who communicates with the correction mirror 100 to control the operation of the correction mirror 100. It includes a terminal 200, a coaching service terminal 300 providing a coaching service for facial correction training, and a service server 400.

여기서, 교정거울(100)과 사용자 단말(200)은 안면 교정 트레이닝을 수행하기 위한 사용자측 단말로서, 사용자 단말(200)은 교정거울(100)과 통신가능하면서 카메라 기능을 있는 스마트 폰 등의 개인통신단말이 될 수 있다. Here, the correction mirror 100 and the user terminal 200 are user-side terminals for performing facial correction training, and the user terminal 200 can communicate with the correction mirror 100 and perform personal communication such as a smart phone having a camera function. can be a terminal.

코칭 서비스 단말(300)은 사용자 단말(200)과 통신하여 사용자로 하여금 정확한 트레이닝을 수행하도록 코칭서비스를 제공하는 사업자측 단말로서, 안면 교정 관련 각종 서비스업체의 단말이 될 수 있는 바, 서비스 업체로는 안면교정 클리닉을 수행하는 성형과, 물리치료업체, 도수치료업체, 에스테틱, 피부과, 한의과 등이나 표정 관리 서비스를 제공하는 면접이나 발표 코칭 업체등이 될 수 있다. 이때, 서비스 업체는 안면 교정 트레이닝 코칭과 자신의 고유 서비스를 결합하여 자신의 고유 서비스를 보다 활성화할 수 있다. The coaching service terminal 300 is an operator's terminal that communicates with the user terminal 200 to provide a coaching service for the user to perform accurate training, and can be a terminal of various service companies related to facial correction. may be a plastic surgery clinic, a physical therapy company, a manual therapy company, an esthetician, a dermatologist, an oriental medicine clinic, or an interview or presentation coaching company that provides facial expression management services. At this time, the service provider may activate its own service more by combining facial correction training coaching with its own service.

또한, 코칭 서비스 단말(300)은 서비스 서버(400)에 의해 매칭된 사용자 단말(200)로 트레이닝 정보를 전송하고, 이에 대응하여 사용자 단말(200)로부터 입력되는 트레이닝 피드백정보를 수집하여 트레이닝 코칭정보를 해당 사용자 단말(200)로 제공한다.In addition, the coaching service terminal 300 transmits training information to the user terminal 200 matched by the service server 400, and in response thereto, collects training feedback information input from the user terminal 200 to provide training coaching information. is provided to the corresponding user terminal 200 .

서비스 서버(400)는 회원가입된 사용자의 사용자 단말(200)로 안면 교정 어플리케이션을 공급하고, 사용자 단말(200)로부터 인가되는 얼굴 영상을 분석하여 사용자의 안면 비대칭 타입을 결정하며, 사용자의 안면 비대칭 타입에 대응되는 트레이닝 스케쥴을 생성하여 매칭된 코칭 서비스 단말(300)로 제공한다. The service server 400 supplies a facial correction application to the user terminal 200 of the user who has registered as a member, analyzes the face image applied from the user terminal 200 to determine the user's facial asymmetry type, and determines the user's facial asymmetry. A training schedule corresponding to the type is created and provided to the matched coaching service terminal 300 .

즉, 서비스 서버(400)에 의해 매칭된 사용자 단말(200)과 코칭 서비스 단말(300)과 통신하여 사용자에게 안면 교정 트레이닝 서비스를 제공한다.That is, the user terminal 200 matched by the service server 400 communicates with the coaching service terminal 300 to provide a facial correction training service to the user.

이때, 서비스 서버(400)는 코칭 서비스 단말(300)별 안면 교정 코칭서비스를 제공받는 사용자정보를 관리하며, 코칭 서비스를 제공하는 사용자 수를 근거로 코칭 서비스 업체에 대한 비용을 정산하여 코칭 서비스 업체로부터 비용을 지급받을 수 있다. 예컨대, 코칭 서비스 업체에서 안면 교정 코칭 서비스 프로그램 사용에 따른 월당 기본 금액을 서비스 서버로 지급하되, 사용자당 코칭 서비스 비용을 차월 기본 금액에서 차감하는 방식으로 정산될 수 있다.At this time, the service server 400 manages user information receiving facial correction coaching service for each coaching service terminal 300, and calculates the cost of the coaching service provider based on the number of users providing the coaching service to the coaching service provider. You may receive payment from For example, the coaching service provider may pay a monthly basic amount according to the use of a facial correction coaching service program to the service server, but the coaching service cost per user may be deducted from the next month's basic amount.

도2는 도1에 도시된 교정거울(100)의 구성을 설명하기 위한 도면으로, 사용자 단말(200)로 스마트 폰이 도시되어 있다. 2 is a diagram for explaining the configuration of the correction mirror 100 shown in FIG. 1, and a smart phone is shown as the user terminal 200.

도2 (A)를 참조하면, 교정거울(100)은 거울면(110)의 일측에 스마트 폰(200)을 거치할 수 있는 스마트폰 거치대(120)를 일체로 구비하여 구성된다. 이때, 스마트폰 거치대(120)는 스마트폰(200) 거치시 자동으로 거울면(110)과 통신 연결되도록 구성될 수 있으며, 통신단자간 물리적 접속 또는 블루투스 등의 무선통신 방식으로 연결되도록 구성될 수 있다. 그리고, 스마트폰 거치대(120)에는 스마트 폰(200)의 거치 여부를 감지하기 위한 감지센서(121)가 구비된다.Referring to FIG. 2 (A), the calibration mirror 100 is integrally provided with a smartphone holder 120 capable of holding the smartphone 200 on one side of the mirror surface 110. At this time, the smartphone holder 120 may be configured to automatically communicate with the mirror surface 110 when the smartphone 200 is mounted, and may be configured to be connected by physical connection between communication terminals or by a wireless communication method such as Bluetooth. there is. In addition, the smartphone holder 120 is provided with a sensor 121 for detecting whether the smartphone 200 is mounted.

또한, 거울면(110)의 상측에는 거울면(110)을 덮기 위한 일반 거울 구조의 거울 커버(130)가 구비된다. 거울 커버(130)는 거울면(110)을 덮는 크기로서, 거울면(110)의 상측에 폴더형태로 결합되어 개폐 상태를 설정한다. 즉, 거울면(110)에 거울 커버(130)가 덮히게 되는 경우, 교정거울(100)은 일반 거울로 사용되고, 거울 커버(130)가 거울면(110)으로부터 개방된 경우, 본 발명에 따른 교정거울로 사용된다. 이때, 거울면(110)의 일측에는 거울 커버(130)의 개폐상태를 감지하기 위한 센서가 추가로 구비될 수 있으며, 센서는 거울 커버(130)의 개폐상태정보를 전자 모듈(140)로 전송할 수 있다.In addition, a mirror cover 130 having a general mirror structure for covering the mirror surface 110 is provided on the upper side of the mirror surface 110 . The mirror cover 130 has a size that covers the mirror surface 110 and is coupled to the upper side of the mirror surface 110 in a folder shape to set an open/closed state. That is, when the mirror cover 130 is covered on the mirror surface 110, the correction mirror 100 is used as a general mirror, and when the mirror cover 130 is opened from the mirror surface 110, according to the present invention Used as a correction mirror. At this time, a sensor for detecting the open/closed state of the mirror cover 130 may be additionally provided on one side of the mirror surface 110, and the sensor transmits open/closed state information of the mirror cover 130 to the electronic module 140. can

또한, 거울면(110)의 주변, 예컨대 후면 하측이나 받침대 내측에는 상기 스마트폰(200)과 연동하여 거울면(110)을 통해 얼굴 비대칭 교정 서비스를 제공하기 위한 전자모듈(140)과 전원부(150)가 구비된다.In addition, around the mirror surface 110, for example, on the lower side of the rear surface or inside the pedestal, an electronic module 140 and a power supply unit 150 for providing a facial asymmetry correction service through the mirror surface 110 in conjunction with the smartphone 200 ) is provided.

한편, 상기 거울면(110)은 도2 (B)에 도시된 바와 같이 일정 면적을 갖는 하프 미러 구조의 거울판(111)과, 거울판(111)의 후면에 배치되면서 격자 형상으로 홈이 형성되는 격자판(112), 이 격자판(112)의 테두리 부분에 일정 간격으로 배치되는 LED 조명부(113) 및, 격자판(112)의 후면에 배치되면서 격자판(112)의 각 교차점 위치에 RGB LED가 배치되는 LED 매트릭스(114)를 포함한다. On the other hand, as shown in FIG. 2 (B), the mirror surface 110 has a half mirror structure having a certain area and a groove formed in a lattice shape while being disposed on the rear surface of the mirror plate 111. A grid plate 112, an LED lighting unit 113 arranged at regular intervals on the edge of the grid plate 112, and RGB LEDs disposed at each intersection of the grid plate 112 while being disposed on the rear surface of the grid plate 112 LED matrix 114.

거울판(111)은 판상으로 된 유리 또는 플라스틱 기재의 후면에 80% 농도의 질산은 수용액을 코팅하여 이루어지는 것으로, 암막처리를 하지 않아 그 후면에 배치되는 격자판(112)이 투과되어 거울판(111)상에 표시되는 하프 미러 구조로 이루어진다. The mirror plate 111 is formed by coating an 80% silver nitrate aqueous solution on the rear surface of a plate-shaped glass or plastic substrate, and the grid plate 112 disposed on the rear surface is transmitted through the mirror plate 111 without shading treatment. It consists of a half-mirror structure displayed on the top.

격자판(112)은 거울판(111)과 동일 재질 및 동일 크기의 기재상에 일정 간격과 굵기로 가로 및 세로 라인의 격자패턴 홈을 형성하여 이루어진다.The grating plate 112 is formed by forming grid pattern grooves of horizontal and vertical lines at regular intervals and thicknesses on a substrate of the same material and size as the mirror plate 111 .

LED 조명부(113)는 격자판(112)의 테두리에 배치되어 격자판(112)에 형성된 격자패턴 홈 라인으로 빛을 산란시킴으로써, 격자판(112)이 격자 형상으로 빛나게 한다.The LED lighting unit 113 is disposed on the edge of the grid plate 112 and scatters light to the grid pattern groove lines formed on the grid plate 112, thereby making the grid plate 112 shine in a grid shape.

LED 매트릭스(114)는 격자판(112)과 동일 크기의 기판상에 격자판(112)의 각 교차점 위치에 RGB LED(D)가 배치되어 구성된다. The LED matrix 114 is configured by arranging RGB LEDs (D) at each intersection of the grid plate 112 on a substrate having the same size as the grid plate 112 .

여기서, 상기 LED 조명부(113)와 LED 매트릭스(114)는 전자 모듈(140)과 전기적으로 연결되어 전자 모듈(140)의 제어신호에 따라 동작된다.Here, the LED lighting unit 113 and the LED matrix 114 are electrically connected to the electronic module 140 and operated according to a control signal of the electronic module 140 .

전자 모듈(140)은 감지센서(121)로부터 인가되는 스마트폰 거치 감지신호를 근거로 거치대(120)에 거치된 스마트폰(200)과 통신하여 스마트폰(200)으로부터 제공되는 제어신호에 따라 상기 LED 조명부(113)와 LED 매트릭스(114)의 각 RGB LED(D)를 개별적으로 온/오프 제어한다. The electronic module 140 communicates with the smartphone 200 mounted on the holder 120 based on the smartphone mounting detection signal applied from the sensor 121, and according to the control signal provided from the smartphone 200 Each RGB LED (D) of the LED lighting unit 113 and the LED matrix 114 is individually controlled on/off.

특히, 전자 모듈(140)은 LED 매트릭스(114)를 제어하여 거울면(110)에 비친 사용자 얼굴의 비대칭 위치를 표시함과 더불어, 비대칭 부위를 교정하기 위한 트레이닝 정보를 트레이닝 위치에서 트레이닝 방향정보로서 표시출력하도록 제어한다.In particular, the electronic module 140 controls the LED matrix 114 to display the asymmetrical position of the user's face reflected on the mirror surface 110, and provides training information for correcting the asymmetrical part as training direction information at the training position. Control to display output.

또한, 전자 모듈(140)은 교정거울(100)로부터 거울 커버(130)의 개폐 상태정보를 센서(미도시)로부터 제공받아 거울 커버(130)가 개방된 경우 교정거울로 LED 조명부(113)를 구동시키기 위한 제어신호를 전송하도록 구성될 수 있다. 즉, 거울 커버(130)가 개방된 경우 거울면(110)을 통해 격자 패턴이 자동으로 표현되도록 한다.In addition, the electronic module 140 receives open/close state information of the mirror cover 130 from the calibration mirror 100 from a sensor (not shown), and when the mirror cover 130 is opened, the LED lighting unit 113 is used as the calibration mirror. It may be configured to transmit a control signal for driving. That is, when the mirror cover 130 is opened, the lattice pattern is automatically expressed through the mirror surface 110 .

전원부(150)는 전자모듈(140) 및 감지센서(121)로 구동 전원을 공급함과 더불어, LED 조명부(113)와 LED 매트릭스(114)에 연결되어 전자 모듈(150)로부터 인가되는 제어신호에 따라 LED 조명부(113) 및 LED 매트릭스(114)의 각 RGB LED(D)로의 전원을 공급하거나 또는 차단한다. The power supply unit 150 supplies driving power to the electronic module 140 and the detection sensor 121, and is connected to the LED lighting unit 113 and the LED matrix 114 according to a control signal applied from the electronic module 150. Power to each RGB LED (D) of the LED lighting unit 113 and the LED matrix 114 is supplied or cut off.

도3은 도1에 도시된 사용자 단말(200)의 구성을 기능적으로 분리하여 나타낸 도면으로, 본 발명에서 사용자 단말(200)은 안면 교정 어플리케이션에 따라 교정거울(100)과 통신하여 교정거울(100)을 통해 안면 트레이닝 서비스를 제공한다.3 is a functionally separated view of the configuration of the user terminal 200 shown in FIG. ) to provide facial training services.

도3을 참조하면, 사용자 단말(200)은 통신 접속모듈(210)과, 영상 획득모듈(220) 및, 영상 동기화모듈(230) 및, 교정 서비스모듈(240)을 포함한다.Referring to FIG. 3 , the user terminal 200 includes a communication connection module 210, an image acquisition module 220, an image synchronization module 230, and a calibration service module 240.

통신 접속모듈(210)은 교정거울(100)과 서비스 서버(400) 및 서비스 단말(300)과 통신을 수행하며, 이때 서로 다른 장치와 서로 다른 방식으로 통신할 수 있다. The communication connection module 210 communicates with the calibration mirror 100, the service server 400, and the service terminal 300, and may communicate with different devices in different ways.

특히, 본 발명에서 통신 접속모듈(210)은 교정거울(100)과 통신 접속된 상태에서, 교정거울(100)로부터 수신되는 페어링 신호를 근거로 안면 교정 어플리케이션을 자동 실행한다. In particular, in the present invention, the communication connection module 210 automatically executes a face correction application based on a pairing signal received from the correction mirror 100 in a communication-connected state with the correction mirror 100.

영상 획득모듈(220)은 교정 어플리케이션이 자동 실행된 상태에서, 교정거울(100)로 제어신호를 전송하여 LED 조명부(113)를 구동시킴과 더불어, LED 매트릭스(114)를 통해 기준라인에 해당하는 RGB LED(D)을 동작시키고, 사용자가 눈을 두번 깜박이는 등의 기 설정된 모션이 인식되는 때의 영상을 교정영상으로 획득한다.The image acquisition module 220 transmits a control signal to the calibration mirror 100 in a state where the calibration application is automatically executed to drive the LED lighting unit 113 and, through the LED matrix 114, the image corresponding to the reference line. The RGB LED (D) is operated, and an image when a preset motion such as a user blinks twice is recognized is acquired as a calibration image.

이때, 영상 획득장치(220)는 교정거울(100)의 거울면(110)을 주시하는 얼굴 상태의 제1 교정영상과 사용자 단말(200)의 카메라를 주시하는 얼굴 상태의 제2 교정영상을 획득한다. At this time, the image acquisition device 220 acquires a first correction image of a face state of looking at the mirror surface 110 of the correction mirror 100 and a second correction image of a face state of gaze of the camera of the user terminal 200. do.

영상 동기화모듈(230)은 제1 교정영상과 제2 교정영상을 OpenCV 알고리즘을 이용하여 분석하고, 동기화 영상 및 트레이닝 스케쥴 생성에 필요한 제2 교정영상의 얼굴 각 부위의 위치와 크기를 산출한다. The image synchronization module 230 analyzes the first correction image and the second correction image using the OpenCV algorithm, and calculates the position and size of each part of the face of the second correction image necessary for generating the synchronization image and training schedule.

또한, 영상 동기화모듈(230)은 교정거울(100)의 거울면(110)에 비치는 상과 사용자 단말(200)에서 촬영된 상을 동기화하여 제1 교정영상을 제1 교정영상 촬영시 교정거울(100)의 거울판(110)으로 표시되는 얼굴 이미지와 동일한 상태의 동기화 영상 즉, 기준라인 얼굴영상으로 변환한다. In addition, the image synchronization module 230 synchronizes the image reflected on the mirror surface 110 of the correction mirror 100 with the image captured by the user terminal 200 so that the first correction image is captured by the correction mirror ( 100) is converted into a synchronization image in the same state as the face image displayed on the mirror plate 110, that is, a reference line face image.

이때, 영상 동기화모듈(230)은 제1 교정영상에서 기 설정된 특징점의 위치 변화를 추적하는 방법으로 동기화 영상을 생성하는 것도 가능하다. 이는 교정거울(100)에 비치는 사용자의 얼굴 위치가 변경되는 것을 고려한 것이다. 이에 따라, 교정거울(100)의 거울면(110)에 비치는 사용자의 얼굴 위치가 변경에 따라 비대칭 위치 및 트레이닝 정보도 변경되어 표현된다. In this case, the image synchronization module 230 may also generate a synchronization image by tracking a positional change of a predetermined feature point in the first calibration image. This is in consideration of the change in the position of the user's face reflected in the correction mirror 100 . Accordingly, as the position of the user's face reflected on the mirror surface 110 of the correction mirror 100 changes, the asymmetric position and training information are also changed and expressed.

교정 서비스모듈(240)은 기준라인 얼굴영상을 서비스 서버(400)로 전송하고, 서비스 단말(300)로부터 제공되는 사용자 얼굴의 비대칭 위치를 근거로 기준라인 얼굴영상과 LED 매트릭스(114)의 RGB LED(D) 위치를 매칭하여 비대칭 위치에 해당하는 RGB LED(D)를 제1 컬러로 구동하기 위한 제어신호를 생성하며, 이를 교정거울(100)로 전송한다.The calibration service module 240 transmits the reference line face image to the service server 400, and based on the asymmetric position of the user's face provided from the service terminal 300, the reference line face image and the RGB LEDs of the LED matrix 114 (D) A control signal for driving the RGB LED (D) corresponding to the asymmetrical position in the first color by matching the position is generated, and the control signal is transmitted to the calibration mirror 100.

또한, 교정 서비스 모듈(240)는 서비스 단말(300)로부터 제공되는 비대칭 위치에 대응되는 트레이닝 위치, 방향, 회수(시간)를 포함하는 트레이닝 정보를 근거로 기준라인 얼굴영상과 LED 매트릭스(114)의 RGB LED(D) 위치를 매칭하여 트레이닝 위치와 트레이닝 위치 주변의 트레이닝 방향에 해당하는 RGB LED(D)를 제2 컬러로 구동하기 위한 제어신호를 생성하며, 이를 교정거울(100)로 전송한다.In addition, the calibration service module 240 generates the reference line face image and the LED matrix 114 based on the training information including the training position, direction, and number of times (time) corresponding to the asymmetrical position provided from the service terminal 300. By matching the positions of the RGB LEDs (D), a control signal for driving the training position and the RGB LEDs (D) corresponding to the training direction around the training position with the second color is generated and transmitted to the calibration mirror 100.

또한, 교정 서비스 모듈(240)은 트레이닝 정보를 스피커를 통해 음성출력하거나 표시창을 통해 표시출력할 수 있다. 특히 교정 서비스 모듈(240)은 표시창으로 교정거울(100)을 통해 수행되는 트레이닝 상태정보를 표시출력함과 더불어, 표시창을 사용자에 의해 트레이닝 스케쥴을 변경하는 대시보드로 이용하도록 구성될 수 있다. In addition, the calibration service module 240 may output training information as audio through a speaker or display it through a display window. In particular, the calibration service module 240 may be configured to display and output training status information performed through the calibration mirror 100 on a display window, and to use the display window as a dashboard for changing a training schedule by a user.

도4는 도1에 도시된 서비스 서버(400)의 내부구성을 기능적으로 분리하여 나타낸 블록구성도이다.FIG. 4 is a block diagram showing the functional separation of the internal configuration of the service server 400 shown in FIG. 1 .

도4를 참조하면 서비스 서버(400)는 통신 접속부(410)와 데이터 저장소(420) 및, 서비스 제어부(430)를 포함한다.Referring to FIG. 4 , the service server 400 includes a communication connector 410 , a data storage 420 , and a service control unit 430 .

통신 접속부(410)는 사용자 단말(200) 및 코칭 서비스 단말(300)과 통신을 수행한다.The communication connection unit 410 communicates with the user terminal 200 and the coaching service terminal 300 .

데이터 저장소(420)는 사용자 단말(200)에 제공할 안면 교정 어플리케이션과 서비스 단말(300)에 제공할 코칭 어플리케이션, 안면 비대칭 상태 판단을 위한 기준 정보와, 안면 비대칭 타입별 트레이닝 내용(트레이닝 정보)을 생성하기 위한 트레이닝 기준 정보, 회원가입된 사용자 단말과 교정거울 및 회원가입된 서비스 단말정보 및, 이들에 대한 서비스 매칭정보를 포함하여 본 발명에 따른 안면 교정 트레이닝 서비스 제공을 위한 각종 정보들이 저장된다. The data storage 420 stores a facial correction application to be provided to the user terminal 200, a coaching application to be provided to the service terminal 300, reference information for determining the facial asymmetry state, and training contents (training information) for each facial asymmetry type. Various types of information for providing a facial correction training service according to the present invention are stored, including training reference information to generate, information on subscribed user terminals and correction mirrors, subscribed service terminal information, and service matching information for these information.

특히, 데이터 저장소(420)는 얼굴 영상을 이용하여 안면 상태를 분석하기 위한 Open CV 알고리즘과, 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델, 안면 타입별 균형의 표준 모델, 비대칭 타입별 기준 정보를 포함한 정보들이 저장된다. 여기서, CNN 모델은 안면 부위의 움직임을 측정하기 위한 AI 알고리즘이고, RNN 모델은 CNN 모델과 연동되어 움직이는 안면 근육의 상호작용과 수직 이완 정보 및 방향을 측정하기 위한 AI 알고리즘이다. 또한, 표준 모델정보는 각 표준 모델별 다수의 서로 다른 표정 영상이 함께 저장된다. In particular, the data storage 420 includes an Open CV algorithm for analyzing facial conditions using face images, a CNN model and an RNN model in which each part of the face is learned, a standard model of balance for each facial type, and reference information for each asymmetric type. Information including is stored. Here, the CNN model is an AI algorithm for measuring movement of facial parts, and the RNN model is an AI algorithm for measuring interaction, vertical relaxation information and direction of facial muscles moving in conjunction with the CNN model. In addition, standard model information is stored together with a plurality of different facial expression images for each standard model.

서비스 제어부(430)는 회원 가입된 사용자 단말(200)로 안면 교정 어플리케이션을 제공함과 더불어, 회원 가입된 서비스 단말(300)로 코칭 어플리케이션을 제공하고, 이들에 대한 매칭정보를 데이터 저장소(420)에 저장하여 관리한다.The service control unit 430 provides a facial correction application to the user terminal 200 subscribed as a member, and provides a coaching application to the service terminal 300 subscribed as a member, and provides matching information for them to the data storage 420. save and manage

또한, 서비스 제어부(430)는 사용자 단말(200)로부터 기준라인 얼굴 영상을 수신하여 비대칭 상태를 판단하고, 비대칭 상태에 대응되는 비균형 타입을 결정하며, 비균형 타입에 대응되는 트레이닝 정보를 생성한다. 그리고, 서비스 제어부(430)는 트레이닝 정보를 해당 사용자 단말(200)과 매칭된 코칭 서비스 단말(300)로 제공한다.In addition, the service control unit 430 receives the reference line face image from the user terminal 200, determines an asymmetric state, determines an unbalanced type corresponding to the asymmetric state, and generates training information corresponding to the unbalanced type. . And, the service control unit 430 provides the training information to the coaching service terminal 300 matched with the corresponding user terminal 200 .

이러한 서비스 제어부(430)는 서비스 관리모듈(431)과 정보 수집모듈(432), 비대칭 분석모듈(433) 및, 서비스 매칭모듈(434)을 포함한다.The service control unit 430 includes a service management module 431, an information collection module 432, an asymmetric analysis module 433, and a service matching module 434.

서비스 관리모듈(431)은 안면 교정 서비스를 제공받고자 하는 사용자에 대한 개인 정보 및, 사용자 단말정보를 포함하는 회원가입정보를 근거로 사용자 회원가입처리를 수행함과 더불어, 코칭 서비스를 제공하고자 하는 서비스 업체에 대한 개인 정보 및, 서비스 단말정보를 포함하는 회원가입정보를 근거로 코칭 회원가입처리를 수행한다.The service management module 431 performs user sign-up processing based on member sign-up information including personal information and user terminal information about the user who wants to receive facial correction service, as well as service companies who want to provide coaching services. Coaching member sign-up processing is performed based on member sign-up information including personal information about and service terminal information.

또한, 서비스 관리모듈(431)은 회원가입된 사용자 단말(200)로 안면 교정 어플리케이션을 제공하고, 회원가입된 서비스 단말(300)로 코칭 어플리케이션을 제공한다. In addition, the service management module 431 provides a facial correction application to the user terminal 200 registered as a member, and provides a coaching application to the service terminal 300 registered as a member.

정보 수집모듈(432)은 사용자 단말(200)로부터 전송되는 기준라인이 포함된 무표정의 얼굴 영상 즉, 기준라인 얼굴영상과 무표정 영상을 포함하여 서로 다른 다양한 표정 영상을 획득한다. The information collection module 432 acquires a variety of different facial expression images including a neutral expression face image including a reference line transmitted from the user terminal 200, that is, a reference line face image and an expressionless image.

비대칭 분석모듈(433)은 정보 획득부(432)에서 수집한 기준라인 얼굴영상을 분석하여 비대칭 속성값을 추출하고, 이를 근거로 해당 사용자 안면의 비대칭 타입을 결정함과 더불어, 모델 빅데이터에서 해당 안면 근골격과 가장 유사한 표준 모델을 결정하고, 얼굴의 각 부위가 학습된 CNN(합성곱 신경망, Convolutional neural network) 모델과 RNN(순환 신경망, Recurrent neural network) 모델에 사용자 표정영상을 적용하여 해당 사용자의 안면 움직임을 분석한다. The asymmetry analysis module 433 analyzes the face image of the reference line collected by the information acquisition unit 432 to extract an asymmetry attribute value, determines the asymmetric type of the user's face based on this, and determines the asymmetric type of the corresponding user's face in the model big data. The standard model most similar to the facial musculoskeletal system is determined, and the facial expression image of the user is applied to the CNN (Convolutional Neural Network) model and the RNN (Recurrent Neural Network) model in which each part of the face has been trained. Analyze facial movements.

또한, 비대칭 분석모듈(433)은 사용자의 비대칭 속성값과 표준 모델의 균형 안면 수치정보를 비교하여 그 차이를 분석하고, 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하며, 이를 적용한 코칭 어플리케이션을 생성한다.In addition, the asymmetry analysis module 433 compares the user's asymmetric attribute value and the balanced facial numerical information of the standard model, analyzes the difference, and creates a facial expression training schedule consisting of training information to have a facial expression image of the standard model, , and create a coaching application applying it.

서비스 매칭모듈(434)은 비균형 타입에 대응하여 사용자 단말(200)과 서비스 단말(300)을 매칭 관리하고, 매칭 정보에 따라 트레이닝 스케쥴을 해당 사용자 단말(200)과 매칭된 서비스 단말(300)로 전송한다.The service matching module 434 matches and manages the user terminal 200 and the service terminal 300 in response to the unbalanced type, and sets the training schedule according to the matching information to the service terminal 300 matched with the corresponding user terminal 200. send to

이어, 상기한 구성으로 된 교정거울을 이용한 표정 트레이닝 기반의 안면 교정 서비스 방법을 도5에 도시된 흐름도를 참조하여 설명한다.Subsequently, a facial correction service method based on facial expression training using a correction mirror configured as described above will be described with reference to a flowchart shown in FIG. 5 .

먼저, 사용자는 사용자 단말(200)을 통해 서비스 서버(400)에 접속하여 일련의 회원가입 처리를 수행하고, 사용자 단말(200)에 서비스 서버(400)로부터 제공되는 안면 교정 어플리케이션을 설치한다. 그리고, 사용자는 자신의 사용자 단말(200)과 연동하는 교정거울(100)을 구비한다.First, the user accesses the service server 400 through the user terminal 200, performs a series of membership registration processes, and installs a facial correction application provided from the service server 400 in the user terminal 200. And, the user has a calibration mirror 100 that works with his or her user terminal 200 .

또한, 서비스 업체는 코칭 서비스 단말(300)을 통해 서비스 서버(400)에 접속하여 일련의 회원가입 처리를 수행하고, 코칭 서비스 단말(300)에 서비스 서버(400)로부터 제공되는 코칭 어플리케이션을 설치한다. 이때, 서비스 업체는 코칭 어플리케이션에 자신의 업체 광고정보 및 업무 관련 정보를 추가할 수 있다. In addition, the service company accesses the service server 400 through the coaching service terminal 300, performs a series of membership registration processes, and installs a coaching application provided from the service server 400 in the coaching service terminal 300. . At this time, the service company may add its own company advertisement information and work-related information to the coaching application.

상기한 상태에서, 사용자는 사용자 단말(200)과 교정거울(100)을 통신 접속 상태로 설정하고, 사용자 단말(200)은 안면 교정 어플리케이션을 실행시킨다. 이후부터 사용자 단말(200)은 안면 교정 어플리케이션에 따라 동작된다.In the above state, the user sets the user terminal 200 and the correction mirror 100 to a communication connection state, and the user terminal 200 executes a face correction application. From then on, the user terminal 200 operates according to the face correction application.

먼저, 사용자 단말(200)은 안면교정 프로그램이 실행된 상태에서, 다양한 표정 영상과 교정거울(100)과 연동하여 생성된 기준 라인 얼굴 영상을 서비스 서버(400)에 전송한다(ST100). 이때, 사용자 단말(200)은 무표정을 포함한 웃음, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 기 설정된 7가지의 서로 다른 표정을 갖는 얼굴 표정을 유도하기 위한 다양한 유도 문장을 출력함으로써, 이에 대응되는 서로 다른 표정 영상을 촬영할 수 있다. First, the user terminal 200 transmits various expression images and reference line face images generated in conjunction with the correction mirror 100 to the service server 400 in a state in which the face correction program is executed (ST100). At this time, the user terminal 200 responds to this by outputting various induction sentences for inducing facial expressions having 7 preset facial expressions of laughter, joy, surprise, fear, sadness, anger, and disgust including expressionless expressions. It is possible to shoot images of different facial expressions.

또한, 상기 ST100 단계에서 사용자 단말(200)은 도6 (A)에 도시된 바와 같이 교정거울(100)을 통해 격자 패턴이 표시되도록 함과 더불어, 도6(B)에 도시된 바와 같이 기준라인(L1,L2,L3)을 표시출력하고, 사용자가 교정거울(100)의 기준 라인(L1,L2,L3)에 따라 자신의 얼굴을 위치시킨 상태의 얼굴 영상을 촬영한다. 그리고, 이 얼굴 영상을 이용하여 기준 라인 얼굴 영상을 생성한 후 서비스 서버(200)에 전송한다. In addition, in the ST100 step, the user terminal 200 displays the grid pattern through the calibration mirror 100 as shown in FIG. 6 (A), and also displays the reference line as shown in FIG. 6 (B). (L1, L2, L3) are displayed and output, and a face image is captured in a state in which the user positions his or her face according to the reference lines (L1, L2, L3) of the correction mirror 100. Then, a reference line face image is generated using the face image and then transmitted to the service server 200 .

또한, 서비스 서버(400)는 사용자 단말(200)로부터 수신한 기준라인 얼굴영상을 근거로 안면 비대칭 타입을 결정한다(ST200). 상술한 기준 라인 얼굴 영상 생성 및 안면 비대칭 타입 결정 과정은 이하에서 상세히 설명한다.In addition, the service server 400 determines the facial asymmetry type based on the reference line face image received from the user terminal 200 (ST200). The process of generating the reference line face image and determining the facial asymmetry type will be described in detail below.

이어, 서비스 서버(400)는 사용자 단말(200)로부터 수신한 표정 영상을 분석하여 기 등록된 안면 대칭형의 표준 모델 중 해당 사용자의 안면 수치와 유사한 특성을 갖는 표준 모델을 결정한다(ST300).Subsequently, the service server 400 analyzes the facial expression image received from the user terminal 200 and determines a standard model having characteristics similar to the facial values of the corresponding user among previously registered standard symmetric facial models (ST300).

또한, 서비스 서버(400)는 사용자 단말(200)로부터 수신한 표정 영상을 근거로 사용자의 안면 움직임을 분석한다(ST400).In addition, the service server 400 analyzes the user's facial movement based on the facial expression image received from the user terminal 200 (ST400).

이때, 서비스 서버(400)는 서로 다른 7가지 표정 영상을 빅 데이터화된 얼굴 영상 데이터 셋으로부터 학습된 GANs(Generative Adversarial Networks, 심층 합성곱 생성적 적대 신경망)을 이용하여 6가지 표정의 얼굴 영상을 추가로 생성한다.At this time, the service server 400 uses GANs (Generative Adversarial Networks, deep convolutional generative adversarial networks) learned from the big data facial image data set for seven different facial expression images to add six facial expressions. create with

하기 표2와 같은 방식의 표정 영상 조합을 통해 6가지의 새로운 표정 영상을 생성한다. Six new facial expression images are generated through the combination of facial expression images in the manner shown in Table 2 below.

기본 표정
default expression
합성 표정
synthetic expression
GAN을 통해 생성된 표정
Facial expression generated by GAN
2.기쁨
2. Joy
1.무표정
1. Expressionless
8.만족
8. Satisfaction
3.놀람
3. Surprise
9.경계
9. Boundary
4.두려움
4. Fear
10.걱정
10. Worry
5.슬픔
5. Sorrow
11.낙담
11. Discouragement
6.분노
6. Anger
12.굳어짐
12. Hardened
7.혐오
7. Dislike
13.멸시
13. Contempt

표1을 참조하면, 기본 표정과 합성 표정은 상기 ST100 단계에서 사용자 단말(100)로부터 획득한 표정 영상이고, GAN을 통해 생성된 표정은 추가로 생성된 표정 영상으로, 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성한다. 예컨대, 표1에서 "만족" 표정 영상은 기쁨 표정 영상과 무표정 영상을 조합하여 생성되고, "경계" 표정 영상은 "놀람" 표정 영상과 무표정 영상을 조합하는 형태로 생성된다. 즉, 서비스 서버(400)는 총 13가지 표정 영상을 해당 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델에 적용하여 해당 사용자의 안면 움직임을 분석한다. 이때, 서비스 서버(400)는 대화시 사용자의 얼굴 근육의 움직임을 측정하기 위해 기 설정된 짧은 문장을 제시하고 해당 문장을 읽는 얼굴 영상을 사용자 단말(200)로부터 획득함과 더불어, 기 설정된 대화내용을 출력하여 해당 대화를 듣는 상태의 얼굴 영상을 사용자 단말(200)로부터 획득하여 이를 안면 움직임 분석에 추가적으로 반영할 수 있다. Referring to Table 1, the basic facial expression and synthesized facial expression are facial expression images obtained from the user terminal 100 in step ST100, and facial expressions generated through GAN are additionally generated facial expression images. By sequentially combining images, fear images, sadness images, anger images, and disgust images, a satisfaction image, a caution image, a worry image, a discouragement image, a hardened image, and a contempt image are sequentially created. For example, in Table 1, a “satisfied” facial expression image is generated by combining a joy expression image and an expressionless expression image, and a “border” facial expression image is generated by combining a “surprise” facial expression image and an expressionless expression image. That is, the service server 400 analyzes the user's facial movement by applying a total of 13 facial expression images to the CNN model and the RNN model in which each part of the face has been learned. At this time, the service server 400 presents a preset short sentence to measure the movement of the user's facial muscles during a conversation, acquires a face image reading the sentence from the user terminal 200, and displays the preset conversation content. A face image in a state of outputting and listening to a corresponding conversation may be obtained from the user terminal 200 and additionally reflected in facial motion analysis.

이어, 서비스 서버(400)는 상기 ST200 단계에서 결정된 안면 비대칭 타입과 ST400 단계에서 결정된 안면 움직임 분석결과를 근거로 회차별 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성한다(ST500).Next, the service server 400 creates a facial expression training schedule consisting of training information for each session based on the facial asymmetry type determined in step ST200 and the facial motion analysis result determined in step ST400 (ST500).

이때, 서비스 서버(200)는 표1에 나타난 표정별 표준 모델의 표정 영상 즉, 표준 영상의 표정을 목표로 하는 표정 트레이닝 스케쥴을 생성한다. 즉, 서비스 서버(200)는 사용자의 표정 영상과 표준 영상을 비교하여 해당 표정이 나타나도록 하기 위한 표정 트레이닝 스케쥴을 생성한다.At this time, the service server 200 creates a facial expression training schedule targeting the facial expression image of the standard model for each facial expression shown in Table 1, that is, the facial expression of the standard image. That is, the service server 200 compares the user's facial expression image with the standard image and creates a facial expression training schedule for displaying the corresponding facial expression.

예컨대, 서비스 서버(200)는 비대칭 속성과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 모델의 해당 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. For example, the service server 200 may select a certain number of facial expression images in the order of increasing facial movements related to the asymmetric attribute, and generate training information to make the corresponding facial expressions of the standard model.

또한, 서비스 서버(200)는 해당 사용자의 각 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 영상의 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. In addition, the service server 200 compares each facial expression image of the corresponding user with the facial expression image of the standard model to calculate the facial movement difference for each facial expression image, selects a certain number of facial expression images in the order of the largest facial movement difference, and selects the corresponding facial expression. Training information to be the facial expression of this standard image can be generated.

이러한 표정 트레이닝 스케쥴은 각 표정에 대한 근육풀기와, 얼굴 움직임, 포인트 지압, 마시지로 이루어지는 기본 표정 트레이닝과, 얼굴 부위의 움직임을 개별적으로 연습한 후 2개 이상의 얼굴 부위를 동시에 움직이는 연습을 수행하며, 표정을 단계적으로 짓도록 한 다음, 표정을 한 번에 짓도록 하는 동작으로 이루어지는 단계 트레이닝 및, 무표정 상태의 개선점을 도출하여 부드럽고 호감가는 표정을 이미지로 생성하여 제시하고, 개선이 필요한 부위에 대한 트레이닝 요소를 도출하여 훈련을 수행하는 호감 트레이닝을 포함할 수 있다. 여기서 호감 트레이닝을 위한 표준 모델은 사용자의 안면 근골격과 유사한 다수의 모델 중에서 사용자 단말(100)을 통해 사용자가 직접 선택할 수 있다.This facial expression training schedule includes basic facial expression training consisting of muscle relaxation for each expression, facial movement, point acupressure, and massage, and practice of moving two or more facial parts simultaneously after practicing the movements of the facial parts individually, Step-by-step training consisting of making facial expressions step by step and then making facial expressions at once, deriving improvement points from expressionless state, generating and presenting images of soft and likeable facial expressions, and training on areas in need of improvement It may include liking training in which elements are derived and training is performed. Here, the standard model for liking training can be directly selected by the user through the user terminal 100 from among a plurality of models similar to the user's facial musculoskeletal system.

이후, 서비스 서버(400)는 사용자 단말(300)로 안면 비대칭 정보와 서비스 업체의 서비스 종류별 코칭 서비스 정보를 전송하고, 사용자 단말(300)로부터 선택된 제휴사 정보를 근거로 해당 서비스 업체의 코칭 서비스 단말(300)로 상기 ST200 단계에서 생성된 트레이닝 스케쥴을 전송하여 사용자 단말(200)과 코칭 서비스 단말(300)을 매칭시킨다(ST600). 이때, 서비스 업체의 선택은 사용자의 안면 비대칭 상태에 따라 서비스 서버(400)에서 임의로 매칭하는 것도 가능하다. 예컨대, 제1 비대칭 타입인 경우 에스테틱, 피부과, 한의과, 제2 비대칭 타입인 경우 물리치료, 도수치료, 제3 비대칭 타입인 경우 성형과와 매칭시킬 수 있다.Thereafter, the service server 400 transmits facial asymmetry information and coaching service information for each service type of the service provider to the user terminal 300, and based on the affiliate information selected from the user terminal 300, the coaching service terminal of the corresponding service provider ( 300), the training schedule generated in step ST200 is transmitted to match the user terminal 200 and the coaching service terminal 300 (ST600). At this time, the selection of the service provider may be arbitrarily matched by the service server 400 according to the user's facial asymmetry. For example, in the case of the first asymmetric type, it can be matched with aesthetics, dermatology, oriental medicine, in the case of the second asymmetric type, physical therapy, manual therapy, and in the case of the third asymmetric type, plastic surgery.

또한, 사용자 단말(300)은 서비스 서버(400)로부터 제공되는 안면 비대칭 정보를 근거로 교정거울(100)에 비친 사용자 얼굴의 비대칭 위치에 배치된 RGB LED(D)를 구동시켜 안면 비대칭 위치를 표현하도록 한다. In addition, the user terminal 300 expresses the asymmetric facial position by driving the RGB LEDs (D) disposed at the asymmetric position of the user's face reflected in the correction mirror 100 based on the facial asymmetry information provided from the service server 400. let it do

즉, 사용자 단말(300)은 비대칭 위치와 LED 매트릭스(114)를 비교하여 LED 매트릭스(114)에서 탐색된 비대칭 위치정보에 대응되는 RGB LED(D) 위치를 판단하며, 해당 위치의 RGB LED(D)를 제1 컬러로 구동하기 위한 제어신호를 생성하여 교정거울(100)로 전송한다. 이에 따라 도6 (C)에 도시된 바와 같이 교정거울(100)의 거울면(110)을 통해 교정거울(100)을 주시하고 있는 사용자 얼굴상에 비대칭 위치(LP1) 정보가 함께 표시출력된다. 이에 따라 사용자는 교정거울(100)을 보면서 자신의 안면 비대칭 부분을 인식할 수 있다.That is, the user terminal 300 compares the asymmetric position and the LED matrix 114 to determine the position of the RGB LED (D) corresponding to the asymmetric position information found in the LED matrix 114, and determines the position of the RGB LED (D) at the corresponding position. ) is generated as a first color and transmitted to the calibration mirror 100 . Accordingly, as shown in FIG. 6(C), information on the asymmetric position LP1 is displayed on the user's face looking at the correction mirror 100 through the mirror surface 110 of the correction mirror 100. Accordingly, the user can recognize his/her facial asymmetry while looking at the correction mirror 100 .

이후, 서비스 서버(400)에 의해 매칭된 사용자 단말(200)과 코칭 서비스 단말(300)은 직접 통신 경로를 형성하는 바, 상호간 트레이닝 정보를 송수신하여 안면 교정 트레이닝 처리를 수행한다(ST700).Thereafter, the user terminal 200 matched by the service server 400 and the coaching service terminal 300 form a direct communication path, and perform facial correction training processing by transmitting and receiving mutual training information (ST700).

즉, 코칭 서비스 단말(300)은 코칭 어플레이션을 동작에 따라 트레이닝 정보를 해당 사용자 단말(200)로 전송하고, 사용자 단말(200)은 트레이닝 정보를 화면 출력 또는 음성 출력하여 사용자로 하여금 트레이닝을 수행하도록 요구함과 더불어, 해당 사용자 단말(200)과 통신 연결된 교정거울(100)로 트레이닝 정보를 표시출력하도록 제어한다. 본 발명에서 사용자 단말(200)의 표시창을 트레이닝 서비스를 위한 대시보드로 이용할 수 있다. 예컨대, 사용자 단말(200)의 표시창을 통해 트레이닝 영상과, 현재 트레이닝 현황을 포함하는 트레이닝 대시보드 정보가 표시출력될 수 있다. That is, the coaching service terminal 300 transmits training information to the corresponding user terminal 200 according to the operation of the coaching application, and the user terminal 200 outputs the training information on the screen or through audio so that the user performs training. In addition to requesting to do so, it controls to display and output training information to the calibration mirror 100 communicatively connected to the corresponding user terminal 200 . In the present invention, the display window of the user terminal 200 can be used as a dashboard for training services. For example, through the display window of the user terminal 200 , training image and training dashboard information including the current training status may be displayed and output.

이때, 사용자 단말(200)은 비대칭 위치에 대응되는 트레이닝 위치, 방향, 회수(시간)를 포함하는 트레이닝 정보를 LED 매트릭스(114)상에 표현하기 위해 트레이닝 위치와 트레이닝 방향정보를 출력하기 위한 트레이닝 제어신호를 교정거울(100)로 전송하여 교정거울(100)을 통해 트레이닝 정보가 표시출력되도록 한다(ST800). 이때, 트레이닝 정보는 도6 (D)에 도시된 바와 같이, 트레이닝 위치(LP2)와 트레이닝 방향(LP3) 정보를 포함하며, 교정거울(100)의 거울면(110)을 통해 표현된다. 여기서, 트레이닝 방향 정보는 트레이닝 위치 주변에 표현되며, 해당 위치에서 해당 방향에 해당하는 RGB LED(D)들을 일정 길이만큼 순차로 누적되게 온(ON)설정함으로써, 방향성이 나타나도록 표시할 수 있으며, 트레이닝 강도가 강할수록 트레이닝 방향을 나타내는 길이를 길게 표시할 수 있다.At this time, the user terminal 200 controls training for outputting training position and training direction information in order to express training information including the training position, direction, and number of times (time) corresponding to the asymmetrical position on the LED matrix 114. The signal is transmitted to the calibration mirror 100 so that training information is displayed and output through the calibration mirror 100 (ST800). At this time, as shown in FIG. 6(D), the training information includes training position LP2 and training direction LP3 information, and is expressed through the mirror surface 110 of the correction mirror 100. Here, the training direction information is expressed around the training position, and by setting the RGB LEDs (D) corresponding to the corresponding direction at the position to be sequentially accumulated for a certain length, it can be displayed so that the directionality appears, The stronger the training intensity, the longer the length representing the training direction can be displayed.

이후, 사용자 단말(200)은 사용자가 트레이닝하는 얼굴 영상을 포함한 트레이닝 피드백정보를 코칭 서비스 단말(300)로 전송하며, 코칭 서비스 단말(300)은 트레이닝 피드백정보에 기반하여 정확한 트레이닝을 위한 코칭정보를 사용자 단말(200)로 제공한다. 이때, 트레이닝 얼굴 영상은 사용자의 트레이닝 상태를 나타내는 영상으로, 카메라를 통해 촬영되는 제1 교정영상이 될 수 있다. Thereafter, the user terminal 200 transmits training feedback information including the face image of the user training to the coaching service terminal 300, and the coaching service terminal 300 provides coaching information for accurate training based on the training feedback information. It is provided to the user terminal 200 . In this case, the training face image is an image representing the user's training state and may be a first calibration image captured by a camera.

이어, 도7을 참조하여 도5에 도시된 기준 라인 얼굴 영상 생성 과정(ST100)을 보다 상세히 설명한다.Next, with reference to FIG. 7, the reference line face image generation process (ST100) shown in FIG. 5 will be described in more detail.

도7을 참조하면, 사용자 단말(200)이 교정거울(100)과 통신 접속된 상태에서, 사용자 단말(200)은 조명 제어신호를 교정거울(100)로 전송하여 LED 조명부(113)을 온(ON) 상태로 설정함으로써, 도6(A)에 도시된 바와 같이 교정거울(100)의 거울면(110)을 통해 격자 패턴이 표시되도록 제어한다(ST110).Referring to FIG. 7, in a state in which the user terminal 200 is connected to the calibration mirror 100, the user terminal 200 transmits a lighting control signal to the calibration mirror 100 to turn on the LED lighting unit 113 ( ON) state, as shown in FIG. 6(A), the grid pattern is controlled to be displayed through the mirror surface 110 of the correction mirror 100 (ST110).

또한, 사용자 단말(200)은 교정거울(100)로 RGB 제어신호를 전송하여 LED 매트릭스(130)에서 얼굴 촬영을 위한 기준라인에 해당하는 RGB LED(D)들을 구동시킨다. 사용자 단말(200)은 교정거울(100)로 LED 매트릭스(130)의 세로 1/3지점과 2/3지점에 해당되는 가로 라인에 배치된 RGB LED(D)들을 온(ON) 상태로 설정한다. 즉, 해당 라인에 인접하여 발생되는 RGB LED(D)들에 의해 도6(B)에 도시된 바와 같이 교정거울(100)의 거울면(110)을 통해 제1 내지 제3 기준라인(L1,L2,L3)의 기준라인이 표현된다(ST120). 여기서, 제1 내지 제3 기준라인(L1,L2,L3)은 사용자의 얼굴 영역을 위치시키기 위한 기준선으로, 사용자의 얼굴의 눈썹과 턱이 제1 기준라인(L1)과 제2 기준라인(L2)의 내측에 위치하도록 하고, 코가 제3 기준라인(L3)에 위치시키기 위한 기준선이다.In addition, the user terminal 200 transmits an RGB control signal to the correction mirror 100 to drive RGB LEDs (D) corresponding to reference lines for face photographing in the LED matrix 130 . The user terminal 200 sets the RGB LEDs (D) arranged on the horizontal lines corresponding to the vertical 1/3 and 2/3 points of the LED matrix 130 to the on state with the calibration mirror 100 . That is, the first to third reference lines L1, through the mirror surface 110 of the calibration mirror 100 as shown in FIG. Reference lines of L2 and L3) are expressed (ST120). Here, the first to third reference lines L1, L2, and L3 are reference lines for locating the user's face area, and the eyebrows and chin of the user's face are the first reference line L1 and the second reference line L2. ), and is a reference line for positioning the nose on the third reference line (L3).

상기한 상태에서, 사용자 단말(200)은 카메라를 통해 교정거울(100)을 주시하고 있는 상태의 사용자 영상을 모니터링하고, 사용자 영상에서 기 설정된 확인 모션이 인식되면 교정거울(100)을 주시하는 얼굴 영상을 제1 교정 영상으로 획득한다(ST130). In the above state, the user terminal 200 monitors a user image in a state of looking at the correction mirror 100 through a camera, and when a preset confirmation motion is recognized in the user image, the face looking at the correction mirror 100. An image is obtained as a first calibration image (ST130).

이때, 사용자 단말(200)은 교정거울(100)로 표시 출력되는 제1 내지 제3 기준라인(L3)의 내측 영역에 기 설정된 얼굴 부위를 위치하도록 요구하는 안내음성을 출력할 수 있다. 그리고, 사용자 단말(200)은 카메라를 통해 수신되는 사용자 영상을 분석하여, 기 설정된 확인 모션, 예컨대 한쪽 눈을 연속하여 두번 깜박이는 동작이 나타나면, 기준 라인 영역에 얼굴 부위가 모두 위치한 것으로 인지하여 해당 시점의 얼굴 이미지를 촬영함으로써, 제1 교정 영상으로 획득한다. At this time, the user terminal 200 may output a guide voice requesting the location of a predetermined face part in the inner region of the first to third reference lines L3 displayed and output by the correction mirror 100 . In addition, the user terminal 200 analyzes the user image received through the camera, and when a preset confirmation motion, for example, blinking one eye twice in succession appears, recognizes that all face parts are located in the reference line area and corresponds to the corresponding By capturing a face image of a viewpoint, a first calibration image is acquired.

즉, 제1 교정 영상은 교정거울(100)의 거울면(110)에 표현되는 제1 내지 제3 기준라인(L3)의 내측 영역에 사용자의 얼굴이 위치한 상태에서 교정거울(100)의 거치대(120)에 거치된 상태의 스마트 폰(200)에 의해 촬영된 교정거울(100)을 주시한 얼굴 영상이다.That is, the first correction image is the cradle of the correction mirror 100 in a state where the user's face is located in the inner region of the first to third reference lines L3 expressed on the mirror surface 110 of the correction mirror 100 ( 120) is a facial image looking at the correction mirror 100 photographed by the smart phone 200 in a state of being mounted.

이어, 사용자 단말(200)은 교정거울(100)으로 표현되는 동일한 격자패턴과 제1 내지 제3 기준라인으로 이루지는 교정 배경화면을 표시출력하고, 교정 배경화면상에서 제1 내지 제3 기준라인을 기준으로 교정거울(100)에서와 동일한 방식으로 사용자 얼굴을 위치시킨 상태에서 카메라를 응시한 상태의 얼굴 영상을 촬영함으로써, 사용자 단말을 주시하는 상태의 제2 교정 영상을 획득한다(ST140). 이때, 사용자 단말(200)은 사용자가 한쪽 눈을 연속하여 두번 깜박이는 동작이 나타나는 것을 판단하여 해당 시점의 얼굴 이미지를 촬영함으로써, 제2 교정 영상을 획득할 수 있다. Subsequently, the user terminal 200 displays and outputs a calibration background screen composed of the same grid pattern represented by the calibration mirror 100 and the first to third reference lines, and displays the first to third reference lines on the calibration background screen. A second calibration image in a state of looking at the user terminal is obtained by taking a face image in a state of gazing at a camera with the user's face positioned in the same way as in the calibration mirror 100 as a reference (ST140). At this time, the user terminal 200 may acquire a second correction image by determining that the user blinks one eye twice in succession and capturing a face image at that time.

또한, 사용자 단말(200)은 상기 ST400 단계에서 획득한 제1 교정 영상과 상기 ST500 단계에서 획득한 제2 교정 영상을 OpenCV 알고리즘을 이용하여 분석하고, 기 설정된 수학식을 이용하여 제1 교정 영상에 대한 동기화 영상 즉, 기준라인 얼굴영상을 생성한다(ST150).In addition, the user terminal 200 analyzes the first calibration image obtained in the step ST400 and the second calibration image obtained in the step ST500 using the OpenCV algorithm, and uses a preset equation to generate the first calibration image. A synchronization image for the face, that is, a reference line face image is generated (ST150).

즉, 사용자 단말(200)은 교정거울(100)의 거울면(110)에 비치는 상과 사용자 단말(20)에서 촬영된 상을 동기화하기 위해 일측으로 기울어진 사다리꼴 형상의 제1 교정영상을 거울면(110)에서 표현되는 이미지와 동일한 직사각형으로 변환한다. 예컨대, 도2와 같이 교정거울(100)의 우측에 사용자 단말(200)이 위치되는 경우 좌측으로 기울어진 사다리꼴 형상을 직사각형으로 변환한다.That is, the user terminal 200 transmits a trapezoid-shaped first correction image tilted to one side to synchronize an image reflected on the mirror surface 110 of the correction mirror 100 with an image captured by the user terminal 20. Convert to the same rectangle as the image expressed in (110). For example, when the user terminal 200 is located on the right side of the correction mirror 100 as shown in FIG. 2, a trapezoidal shape inclined to the left is converted into a rectangle.

본 발명에서는 제1 및 제2 교정영상의 우측 첫 위치 좌표를 기준으로 하기 수학식 1의 보정함수를 이용하여 동기화 영상을 생성한다. In the present invention, a synchronization image is generated using the correction function of Equation 1 based on the first position coordinates on the right of the first and second correction images.

Figure 112020115115044-pat00001
Figure 112020115115044-pat00001

여기서, X 와 Y 는 보정된 각 픽셀의 위치좌표, X0 와 Y0 는 제1 교정영상의 우측 첫 위치 좌표, X1 과 Y1 은 제2 교정영상의 우측 첫 위치 좌표, σ는 사용자 단말 (예컨대, 스마트 폰)에 구비된 카메라의 고유 왜곡보정율, θ 는 제1 교정영상에서 사용자 얼굴의 왼쪽과 오른쪽 눈썹의 상단을 연결한 직선과 수평선 대비 기울기이다. σ는 사용자단말 카메라 제조사로부터 제공받거나 또는 공지의 수학식을 통해 카메라 렌즈의 원근 관련 왜곡 보정률을 산출함으로써 획득될 수 있다. Here, X and Y are the position coordinates of each corrected pixel, X0 and Y0 are the coordinates of the first right position of the first calibration image, X1 and Y1 are the coordinates of the first right position of the second calibration image, and σ is the user terminal (e.g., smart The distortion correction rate, θ, of the camera provided in the phone) is the slope of the horizontal line and the straight line connecting the tops of the left and right eyebrows of the user's face in the first correction image. σ may be obtained from a user terminal camera manufacturer or by calculating a perspective-related distortion correction rate of a camera lens through a known equation.

즉, 도8에 도시된 바와 같이 사용자 단말(200)에서 촬영된 교정거울(100) 주시 상태의 제1 교정영상을 제1 영상 촬영시 교정거울(100)의 거울면(110)으로 표시되는 얼굴 이미지와 동일한 상태로 동기화된 영상 즉, 기준라인 얼굴영상으로 변환한다. That is, as shown in FIG. 8 , the face displayed as the mirror surface 110 of the correction mirror 100 when the first correction image taken by the user terminal 200 while looking at the correction mirror 100 is captured. It is converted into a synchronized image in the same state as the image, that is, a reference line face image.

이어, 도9를 참조하여 도5에 도시된 안면 비대칭 타입 결정 과정(ST200)을 보다 상세히 설명한다.Next, with reference to FIG. 9, the facial asymmetry type determination process (ST200) shown in FIG. 5 will be described in detail.

도9를 참조하면, 서비스 서버(400)는 기준라인 얼굴영상에서 기 설정된 각 부위 포인트(P1 ~ P8) 및, 안면 기준라인을 연결하여 안면 비대칭 상태를 판단하기 위한 측정 라인을 생성한다(ST210). 이때, 부위 포인트는 각 부위의 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4), 입술 꼬리(P5, P6), 귀밑 끝(P7,P8), 상측 입술 홈(P9)을 포함한다. 그리고, 측정 라인은 양쪽 귀끝 포인트(P7,P8)를 제1 기준라인(L1)에 수직하게 연결하는 라인과, 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트와 입술 홈(P9)을 연결하는 라인을 포함한다.Referring to FIG. 9, the service server 400 creates a measurement line for determining facial asymmetry by connecting preset points P1 to P8 and facial reference lines in the reference line face image (ST210). . At this time, the site points include the lacrimal glands (P1, P2) on each side, the tips of the whites of the outer corners of the eyes (P3, P4), the tails of the lips (P5, P6), the tips of the ears (P7, P8), and the upper lip groove (P9). do. In addition, the measurement line is a line connecting both ear tip points P7 and P8 perpendicularly to the first reference line L1, and connecting both tear glands P1 and P2 and the white tips of the eyes P3 and P4. A line connecting the points of the tails of the lips P5 and P6, and a line connecting the points of the tails of the lips P5 and P6 and the grooves of the lips P9 are included.

이어, 서비스 서버(200)는 도10에 도시된 바와 같이 제3 기준라인(L3)과 제1 기준라인(L1)이 만나는 포인트에 수직하는 제1 중력라인(GL1)과 제2 중력라인(GL2)을 생성하고, 입술꼬리 중 보다 위로 올라간 입술꼬리 포인트를 기준으로 제1 중력라인(GL1)과 수직하는 제3 중력라인(GL3)으로 이루어지는 중력라인을 생성한다(ST220).Then, as shown in FIG. 10 , the service server 200 establishes a first gravity line GL1 and a second gravity line GL2 perpendicular to the point where the third reference line L3 and the first reference line L1 meet. ) is generated, and a gravity line consisting of a third gravity line GL3 perpendicular to the first gravity line GL1 is generated based on the upper lip tail point among the lip tails (ST220).

그리고, 서비스 서버(200)는 중력라인에 기초하여 양쪽 각 부위 포인트간 거리, 서로 다른 부위 포인트간 거리, 측정 라인 간의 거리, 각도, 포인트들을 연결하는 측정 라인에 의해 형성되는 면의 면적 등의 수치값을 근거로 비대칭 속성값을 산출한다(ST230). 이때, 서비스 서버(200)는 안면의 모든 측정라인을 제1 및 제2 중력라인(GL1,GL2)에 평행되도록 회전시켜 비교 라인을 설정하고, 비교 라인과 사용자의 안면 측정라인간의 차이를 근거로 비대칭 속성값을 산출한다. 본 발명에서 비대칭 속성은 비대칭 여부를 판단하기 위한 항목으로, 양쪽 귀끝 높이, 양 눈의 크기, 양 눈의 수평 높이, 입술끝점의 수평높이, 코의 좌우 균형, 입의 좌우 균형, 좌우 눈썹과 입꼬리의 길이, 얼굴의 좌우 면적 등을 포함한다.In addition, the service server 200 measures the distance between each part point on both sides, the distance between different part points, the distance between measurement lines, the angle, and the area of the surface formed by the measurement line connecting the points based on the gravity line. An asymmetric attribute value is calculated based on the value (ST230). At this time, the service server 200 sets a comparison line by rotating all measurement lines of the face parallel to the first and second gravity lines GL1 and GL2, and based on the difference between the comparison line and the user's face measurement line. Calculate the asymmetric attribute value. In the present invention, the asymmetry attribute is an item for determining asymmetry, the height of both ear tips, the size of both eyes, the horizontal height of both eyes, the horizontal height of the lip tip, the left and right balance of the nose, the left and right balance of the mouth, the left and right eyebrows and the corners of the mouth length, and the left and right areas of the face.

이때, 서비스 서버(400)는 상기 ST230 단계에서 산출된 속성값을 사용자 단말(200)로 전송하고, 사용자 단말(200)은 이를 교정거울(100)을 통해 표시출력할 수 있다. At this time, the service server 400 transmits the attribute value calculated in step ST230 to the user terminal 200, and the user terminal 200 can display and output it through the calibration mirror 100.

이어, 서비스 서버(200)는 도10에 도시된 기준라인과 중력라인을 비교하여 중력라인을 기준으로 기준라인의 경사 여부 및 경사 방향을 결정하고, 기준라인의 경사 상태에 따라 비대칭 타입을 결정한다(ST240). 비대칭 타입은 도11에 도시된 바와 같이, 제1 및 2 기준라인(L1,L2)의 경사 여부 및 경사 방향에 따라 비대칭 타입을 3가지로 구분할 수 있으며, 제1 비대칭 타입(A)은 제1 기준라인(L1)만 경사 상태인 경우이고, 제2 비대칭 타입은 제2 기준라인(L2)과 제1 기준라인(L1)이 서로 다른 방향으로 경사 형성된 경우이며, 제3 비대칭 타입은 제2 기준라인(L2)과 제1 기준라인(L1)이 동일 방향으로 경사 형성된 경우이다. Next, the service server 200 compares the reference line shown in FIG. 10 with the gravity line, determines whether or not the reference line is inclined and the direction of the reference line based on the gravity line, and determines the asymmetric type according to the inclination state of the reference line. (ST240). As shown in FIG. 11, the asymmetric type can be classified into three types according to the inclination and direction of the inclination of the first and second reference lines L1 and L2, and the first asymmetric type (A) is the first When only the reference line L1 is inclined, the second asymmetric type is when the second reference line L2 and the first reference line L1 are inclined in different directions, and the third asymmetric type is when the second reference line L2 and the first reference line L1 are inclined in different directions. This is a case where the line L2 and the first reference line L1 are inclined in the same direction.

제1 비대칭 타입(A)은 가장 초기단계의 안면 비대칭 상태로서, 제2 기준라인(L2)만 경사 상태로 설정된다. 이는 아래턱이 좌측아래턱(하악)이 좌측 혹은 우측으로 틀어진 상태이며, 아래턱 이외의 부위에서는 아직 비대칭이 뚜렷하게 나타나지 않은 상태로 분석된다. The first asymmetry type (A) is the facial asymmetry state at the earliest stage, and only the second reference line (L2) is set to an inclined state. This is a state in which the lower jaw is distorted to the left or the right, and the asymmetry is not yet evident in areas other than the lower jaw.

제2 비대칭 타입(B)은 제1 비대칭 타입(A) 상태에서 하악의 틀어짐이 더 심해지면서 나타나는 상태로, 가장 흔한 안면 비대칭 유형이다. 제2 비대칭 타입(B)은 제1 및 제2 기준라인(L1,L2)이 모두 경사 상태로서, 서로 다른 방향으로 경사 형성된 상태로 설정된다. 이는 아래턱이 틀어진 방향으로 측두골이 밀려나면서 외회전 위턱(상악)이 아래턱과 같은 방향으로 틀어지고, 아래턱이 틀어진 방향으로 눈과 광대가 주저앉으면서 얼굴이 찌그러져 보이는 유형으로 분석되며, 아래턱이 틀어진 방향으로 코가 휘는 경우가 많다. 이 경우, 노화가 진행되면 찌그진 방향으로 눈가주름, 팔자주름 등도 더 깊이 유발되는 특징을 갖는다.The second asymmetric type (B) is a condition in which the distortion of the lower jaw becomes more severe in the first asymmetry type (A) state, and is the most common facial asymmetry type. In the second asymmetric type (B), both the first and second reference lines L1 and L2 are inclined, and are set to be inclined in different directions. This is analyzed as a type in which the externally rotated upper jaw (maxilla) is twisted in the same direction as the lower jaw as the temporal bone is pushed in the direction the lower jaw is distorted, and the eyes and cheekbones sink in the direction the lower jaw is distorted, causing the face to look distorted. The nose is often crooked. In this case, as aging progresses, wrinkles around the eyes and nasolabial folds are induced more deeply in a distorted direction.

제3 비대칭 타입(C)은 가장 심한 안면 비대칭 유형으로, 제1 및 제2 기준라인(L1,L2)이 모두 경사 상태로서, 동일 방향으로 경사 형성된 상태로 설정된다. 이는 제2 비대칭 타입(B)에서 비대칭이 더욱 진행되어 측두골과 접형골 등 두개골의 변위 진행한 상태로서, 아래턱과 반대방향으로 위턱이 틀어지고 코가 휜 상태로, 아래턱이 틀어진 방향으로 눈매와 광대선이 위로 올라간 상태이며, 안면뼈와 두개골의 변위가 가장 많이 진행된 유형으로 분석된다. The third asymmetry type (C) is the most severe type of facial asymmetry, in which the first and second reference lines L1 and L2 are both inclined, and are set to be tilted in the same direction. This is a state in which the asymmetry has progressed further in the second asymmetric type (B) and the displacement of the skull, such as the temporal bone and the sphenoid bone, has progressed. This is the upward state, and the displacement of the facial bones and skull is analyzed as the most advanced type.

100 : 교정거울, 200 : 사용자 단말,
300 : 코칭 서비스 단말, 400 : 서비스 서버.
100: correction mirror, 200: user terminal,
300: coaching service terminal, 400: service server.

Claims (13)

격자패턴의 각 교차점 위치에 RGB LED가 배치되는 거울면과, 사용자 단말과 통신하여 사용자 단말로부터 수신된 제어신호를 근거로 격자패턴 및 RGB LED가 출력되도록 제어하는 전자 모듈 및, 상기 거울면의 일측에 사용자 단말을 거치하기 위한 거치대를 포함하여 구성되는 교정거울과,
안면 교정 어플리케이션의 실행에 따라 교정거울과 통신하여 거울면을 통해 안면 비대칭 트레이닝 정보를 제공하되, 교정거울에 표현된 기준라인이 포함된 기준라인 얼굴영상과 무표정을 포함한 다양한 표정 영상을 촬영하여 서비스 서버로 제공하고, 서비스 서버에 의해 매칭된 코칭 서비스 단말과 통신하여 트레이닝 정보를 교정거울을 통해 표현함과 더불어, 이에 대응되는 사용자 얼굴영상을 포함한 트레이닝 피드백정보를 코칭 서비스 단말로 전송하고, 이에 대해 코칭 서비스 단말로부터 수신되는 코칭정보를 출력하는 사용자 단말,
사용자 단말로부터 수신된 기준라인 얼굴 영상을 근거로 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하고, 기준라인에 대응되는 중력 기준의 중력 라인을 생성하여 중력 라인과 양쪽 각 부위 포인트간의 거리와 부위 포인트간 거리를 근거로 비대칭 속성값을 산출하며, 상기 각 중력라인과 기준라인간의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정함과 더불어, 표정 영상을 근거로 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 표정 영상을 근거로 분석된 안면 움직임을 근거로 표준 모델의 표정을 목표로하는 트레이닝 스케쥴을 생성하여 해당 사용자 단말과 매칭된 코칭 서비스 단말로 제공하는 서비스 서버 및,
서비스 서버로부터 제공받아 설치된 코칭 어플리케이션에 서비스 서버로부터 수신된 해당 사용자의 표정 트레이닝 스케쥴을 적용하고, 서비스 서버에 의해 매칭된 사용자 단말로 트레이닝 정보를 전송함과 더불어, 사용자단말로부터 수신된 트레이닝 피드백정보에 대응되는 코칭정보를 제공하는 코칭 서비스 단말을 포함하여 구성되고,
상기 사용자 단말은 교정거울의 거치대에 거치된 상태에서 거울면을 주시하는 얼굴 상태의 제1 교정영상과, 사용자 단말을 주시하는 얼굴 상태의 제2 교정영상을 촬영하고, 하기 수학식을 이용하여 제1 교정영상을 거울면으로 표시되는 얼굴 영상인 기준라인 얼굴영상을 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
Figure 112022108989665-pat00017

여기서, X 와 Y 는 보정된 각 픽셀의 위치좌표, X0 와 Y0 는 제1 교정영상의 우측 첫 위치 좌표, X1 과 Y1 은 제2 교정영상의 우측 첫 위치 좌표, σ는 카메라의 고유 왜곡보정율, θ 는 제1 교정영상에서 사용자 얼굴의 왼쪽과 오른쪽 눈썹의 상단을 연결한 직선과 수평선 대비 기울기.
A mirror surface on which RGB LEDs are disposed at each intersection of the lattice pattern, an electronic module communicating with a user terminal and controlling the output of the lattice pattern and RGB LEDs based on a control signal received from the user terminal, and one side of the mirror surface A calibration mirror configured to include a cradle for mounting a user terminal on the;
According to the execution of the facial correction application, it communicates with the correction mirror to provide facial asymmetry training information through the mirror surface, but the service server captures various facial images including a reference line face image and expressionless expression expressed in the correction mirror. In addition to expressing the training information through the correction mirror by communicating with the coaching service terminal matched by the service server, the corresponding training feedback information including the user's face image is transmitted to the coaching service terminal, and the coaching service A user terminal outputting coaching information received from the terminal;
Based on the reference line face image received from the user terminal, a plurality of points of each part including the eyes, ears, and mouth are extracted, and a gravity line of gravity reference corresponding to the reference line is created, and the distance between the gravity line and each part point on both sides Calculate the asymmetric attribute value based on the distance between the and part points, determine the asymmetric type based on whether or not and the direction of the slope between each gravity line and the reference line, and in the standard model registered in advance based on the facial expression image Determines the standard model of the facial structure most similar to the user's face, creates a training schedule targeting the facial expression of the standard model based on the facial motion analyzed based on the facial expression image, and provides it to the coaching service terminal matched with the user terminal a service server and,
The user's facial expression training schedule received from the service server is applied to the coaching application provided and installed from the service server, and training information is transmitted to the user terminal matched by the service server, as well as training feedback information received from the user terminal. It is configured to include a coaching service terminal providing corresponding coaching information,
The user terminal captures a first correction image of a face state of looking at the mirror while being mounted on a cradle of a correction mirror, and a second correction image of a face state of gaze of the user terminal, and obtains a correction image using the following equation. 1 A facial asymmetry correction system based on expression training using a correction mirror, characterized in that it generates a reference line face image, which is a face image displayed as a mirror surface of the correction image.
Figure 112022108989665-pat00017

Here, X and Y are the position coordinates of each corrected pixel, X0 and Y0 are the coordinates of the first right position of the first calibration image, X1 and Y1 are the coordinates of the first right position of the second calibration image, and σ is the camera's unique distortion correction rate. , θ is the slope of the contrast between the straight line and the horizontal line connecting the tops of the left and right eyebrows of the user's face in the first correction image.
제1항에 있어서,
상기 교정거울의 거울면은 하프 미러 구조의 거울판과, 거울판의 후면에 배치되면서 격자 형상의 홈이 형성된 격자판, 격자판의 테두리 부분에 일정 간격으로 배치되는 LED 조명부, 격자판의 후면에 배치되면서 격자판의 각 교차점 위치에 RGB LED가 배치되는 LED 매트릭스를 포함하여 구성되고,
상기 전자모듈은 사용자 단말로부터 제공되는 제어신호에 따라 상기 LED 조명부와 상기 LED 매트릭스의 각 RGB LED를 온/오프 제어하는 것을 특징으로 하는 전자 모듈을 포함하여 구성되는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
According to claim 1,
The mirror surface of the calibration mirror is a mirror plate having a half mirror structure, a grid plate having grid-shaped grooves disposed on the rear surface of the mirror plate, an LED lighting unit disposed at regular intervals on the edge of the grid plate, and a grid plate disposed on the rear surface of the grid plate. It is configured to include an LED matrix in which RGB LEDs are disposed at each intersection of
The electronic module is configured to include an electronic module characterized in that for controlling the on / off of the LED lighting unit and each RGB LED of the LED matrix according to a control signal provided from the user terminal Facial expression using a correction mirror, characterized in that Training-based facial asymmetry correction system.
제2항에 있어서,
상기 사용자 단말은 교정거울의 LED 조명부를 구동시켜 격자판에 형성된 홈으로 LED 광이 산란되어 격자 패턴이 거울면으로 표시출력되도록 함과 더불어, LED 매트릭스의 기 설정된 라인 위치의 RGB LED들을 구동시켜 기준라인이 표시출력되도록 한 상태에서, 기준라인을 기준으로 얼굴이 배치된 상태의 사용자 얼굴을 촬영하여 기준라인 얼굴영상을 획득하고, 비대칭 위치에 해당하는 LED 매트릭스의 RGB LED를 제1 컬러로 동작시키고, 해당 비대칭 위치에 대응되는 트레이닝 위치와 트레이닝 방향에 해당하는 LED 매트릭스의 RGB LED를 제2 컬러로 동작시키도록 제어하도록 구성되는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
According to claim 2,
The user terminal drives the LED lighting unit of the calibration mirror to scatter the LED light into the grooves formed on the grid plate so that the grid pattern is displayed on the mirror surface and drives the RGB LEDs at the preset line positions of the LED matrix to form the reference line. In the state where the display is output, the user's face is photographed in a state where the face is arranged based on the reference line to obtain a reference line face image, and the RGB LEDs of the LED matrix corresponding to the asymmetric position are operated with a first color, A facial asymmetry correction system based on facial expression training using a correction mirror, characterized in that configured to control the RGB LEDs of the LED matrix corresponding to the training position and training direction corresponding to the asymmetric position to operate in a second color.
삭제delete 제1항에 있어서,
상기 교정거울은 거울면의 상측에 거울면을 덮기 위한 일반 거울 구조의 거울 커버가 폴더 형태로 개폐되도록 추가로 결합되어 구성되고,
상기 사용자 단말은 교정거울로부터 거울 커버의 개폐 상태정보를 제공받아 거울 커버가 개방된 경우 교정거울을 통해 격자패턴이 표시되도록 제어하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
According to claim 1,
The correction mirror is configured by additionally coupling a mirror cover of a general mirror structure for covering the mirror surface to the upper side of the mirror surface to open and close in a folder shape,
The user terminal is provided with open/closed state information of the mirror cover from the correcting mirror and controls the lattice pattern to be displayed through the correcting mirror when the mirror cover is open.
제1항에 있어서,
서비스 서버는 제2 가로 기준라인만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준라인이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준라인과 제1 가로 라인이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 비대칭 타입을 구분하여 결정하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
According to claim 1,
The service server includes a first asymmetric type in which only the second horizontal reference line is inclined, a second asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in different directions, and the second horizontal reference line and the first horizontal reference line. 1 A facial asymmetry correction system based on expression training using a correction mirror, characterized in that the asymmetric type is determined by dividing the asymmetric type into a third asymmetric type in which horizontal lines are inclined in the same direction.
제1항에 있어서,
상기 서비스 서버는 사용자 단말로부터 수신한 표정 영상을 조합하여 추가로 표정 영상을 생성한 후, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하고, 추가 생성된 표정 영상을 포함한 표준 모델의 표정을 갖도록 하기 위한 트레이닝 정보를 생성하되,
상기 추가 생성되는 표정 영상은 사용자 단말로부터 수신된 무표정 영상에 사용자 단말로부터 수신된 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 시스템.
According to claim 1,
The service server generates an additional facial expression image by combining the facial expression images received from the user terminal, analyzes the facial movement using the user facial expression image including the additionally generated facial expression image, and standardizes the additionally generated facial expression image. Create training information to have a model's expression,
The additionally generated facial expression image is a satisfaction image, a warning image, and a worry image by sequentially combining the expressionless image received from the user terminal with the joy image, surprise image, fear image, sadness image, anger image, and disgust image received from the user terminal. , A face asymmetry correction system based on facial expression training using a correction mirror, characterized in that it sequentially generates a discouragement image, a stiffening image, and a contempt image.
격자 패턴과 격자 패턴의 교차점에 RGB LED가 구비된 교정거울과 통신하는 사용자 단말을 이용하여 안면 비대칭 트레이닝 정보를 제공하고, 코칭 서비스 단말을 통해 사용자 단말을 통해 수행되는 트레이닝 상태에 대한 코칭정보를 제공하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법에 있어서,
사용자 단말에서 교정거울로 표현되는 격자 패턴상에 얼굴 촬영을 위한 기준라인이 표시되도록 제어함과 더불어, 교정거울의 기준라인을 포함한 얼굴 영상과, 무표정을 포함한 다양한 표정 영상을 촬영하여 서비스 서버로 전송하는 제1 단계와,
서비스 서버에서 기준라인 얼굴영상을 분석하여 안면 비대칭 속성을 추출하고, 기준라인 얼굴영상에 중력 기준의 중력라인을 기준라인에 대응되는 위치에 설정하여 중력라인과 기준라인간의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하는 제2 단계,
서비스 서버에서 표정영상을 분석하여 기 등록된 표준 모델에서 사용자 안면 특성과 가장 유사한 안면 구조의 표준 모델을 결정하는 제3 단계,
서비스 서버에서 표정 영상을 근거로 사용자 안면 움직임을 분석하는 제4 단계,
서비스 서버에서 비대칭 타입과 안면 움직임을 근거로 표준 모델의 표정을 목표로 하는 트레이닝 스케쥴을 생성하는 제5 단계 및,
서비스 서버에서 사용자 단말로 코칭정보를 제공하기 위한 코칭 서비스 단말을 매칭시키고, 매칭된 코칭 서비스 단말로 해당 사용자의 트레이닝 스케쥴을 전송하여 매칭된 사용자 단말과 코칭 서비스 단말간 통신을 통해 안면 교정 트레이닝을 수행하되, 사용자 단말은 교정거울을 통해 거울면에 비치는 자신의 얼굴상에 비대칭 속성 및 트레이닝 정보에 대응되는 위치의 RGB LED를 구동하는 제6 단계를 포함하여 구성되고,
상기 제1 단계는 서비스 서버에서 상기 사용자 단말의 카메라를 통해 교정거울을 주시하는 얼굴 상태의 제1 교정영상을 획득하는 단계와, 사용자 단말의 카메라를 통해 사용자 단말을 주시하는 얼굴 상태의 제2 교정영상을 획득하는 단계 및, 사용자 단말에서 제1 교정영상을 하기 수학식에 적용하여 거울면으로 표시되는 얼굴 영상 형태의 기준라인 얼굴영상을 생성하는 단계를 포함하여 구성되는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법.
Figure 112022108989665-pat00018

여기서, X 와 Y 는 보정된 각 픽셀의 위치좌표, X0 와 Y0 는 제1 교정영상의 우측 첫 위치 좌표, X1 과 Y1 은 제2 교정영상의 우측 첫 위치 좌표, σ는 사용자 단말 카메라의 고유 왜곡보정율, θ 는 제1 교정영상에서 사용자 얼굴의 왼쪽과 오른쪽 눈썹의 상단을 연결한 직선과 수평선 대비 기울기.
Provides facial asymmetry training information using a user terminal that communicates with a correction mirror equipped with RGB LEDs at the intersection of the lattice pattern and the lattice pattern, and provides coaching information on the training status performed through the user terminal through the coaching service terminal. In the facial expression training-based facial asymmetry correction service method using a correction mirror to
In addition to controlling the display of reference lines for face capture on the grid pattern represented by the correction mirror in the user terminal, a face image including the reference line of the correction mirror and various expression images including expressionless expressions are photographed and transmitted to the service server. The first step of doing,
The service server analyzes the face image of the reference line, extracts the facial asymmetry attribute, sets the gravity line of the gravity standard at the position corresponding to the reference line in the face image of the reference line, and determines whether or not the gradient between the gravity line and the reference line and the direction of the inclination are determined. A second step of determining the asymmetric type with
A third step of analyzing facial expression images in the service server and determining a standard model of a facial structure most similar to user facial characteristics from previously registered standard models;
A fourth step of analyzing the user's facial movement based on the facial expression image in the service server;
A fifth step of generating a training schedule targeting the facial expression of the standard model based on the asymmetric type and facial movement in the service server;
The service server matches the coaching service terminal for providing coaching information to the user terminal, transmits the user's training schedule to the matched coaching service terminal, and performs facial correction training through communication between the matched user terminal and the coaching service terminal. However, the user terminal is configured to include a sixth step of driving an RGB LED at a position corresponding to the asymmetric attribute and training information on the user's face reflected on the mirror surface through the correction mirror,
The first step includes obtaining a first correction image of a face state of looking at a correction mirror through a camera of the user terminal in the service server, and second correction of a face state of looking at the user terminal through a camera of the user terminal. A correction mirror, characterized in that it comprises the steps of acquiring an image and generating a reference line face image in the form of a face image displayed as a mirror surface by applying the first correction image to the following equation at the user terminal. Facial expression training-based facial asymmetry correction service method.
Figure 112022108989665-pat00018

Here, X and Y are the position coordinates of each corrected pixel, X0 and Y0 are the coordinates of the first right position of the first calibration image, X1 and Y1 are the coordinates of the first right position of the second calibration image, and σ is the inherent distortion of the user terminal camera The correction rate, θ, is the slope of the straight line connecting the tops of the left and right eyebrows of the user's face in the first correction image and the horizontal line.
삭제delete 제8항에 있어서,
상기 제1 단계에서 사용자 단말은 무표정, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 표정을 유도하기 위한 다양한 유도 문장을 출력하고, 각 유도 문장에 대한 반응 표정을 사용자의 표정 영상으로 획득하여 서비스 서버에 전송하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법.
According to claim 8,
In the first step, the user terminal outputs various induction sentences for inducing expressions of expressionless expression, joy, surprise, fear, sadness, anger, and disgust, and obtains a reaction expression for each induction sentence as a user's facial expression image to provide service. A facial asymmetry correction service method based on facial expression training using a correction mirror, characterized in that for transmission to the server.
제8항에 있어서,
상기 제4 단계에서 서비스 서버는 상기 제1 단계에서 획득한 사용자 표정 영상을 조합하여 사용자 표정 영상을 추가 생성하고, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하며,
상기 제5 단계에서 서비스 서버는 추가 생성된 표정 영상을 포함한 표준 모델의 표정을 갖도록 하기 위한 트레이닝 정보를 생성하고,
상기 추가 생성되는 표정 영상은 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법.
According to claim 8,
In the fourth step, the service server additionally generates a user facial expression image by combining the user facial expression images acquired in the first step, analyzes facial movements using the user facial expression image including the additionally generated facial expression image,
In the fifth step, the service server generates training information to have a standard model expression including an additionally generated expression image,
The additionally generated facial expression image is a satisfaction image, a caution image, a worry image, a discouragement image, a hardening image, and a contempt image by sequentially combining a joy image, a surprise image, a fear image, a sadness image, an anger image, and a disgust image in an expressionless image. A facial asymmetry correction service method based on facial expression training using a correction mirror, characterized in that sequentially additionally generated.
제8항에 있어서,
상기 제5 단계에서 서비스 서버는 비대칭 속성과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 선택된 표정을 목표로 하는 트레이닝 정보를 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법.
According to claim 8,
In the fifth step, the service server selects a certain number of facial expression images in order of increasing facial movements related to the asymmetry attribute and generates training information targeting the selected facial expression. Asymmetry correction service method.
제8항에 있어서,
상기 제5 단계에서 서비스 서버는 사용자 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 선택된 표정을 목표로 하는 트레이닝 정보를 생성하는 것을 특징으로 하는 교정거울을 이용한 표정 트레이닝 기반의 안면 비대칭 교정 서비스 방법.
According to claim 8,
In the fifth step, the service server compares the user's facial expression image with the facial expression image of the standard model, calculates the facial movement difference for each facial expression image, selects a certain number of facial expression images in the order of the largest facial movement difference, and aims for the selected facial expression. A facial asymmetry correction service method based on facial expression training using a correction mirror, characterized in that for generating training information to do.
KR1020200141774A 2020-10-29 2020-10-29 System and Method for correcting facial asymmetry based expression training using correction mirror KR102497694B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200141774A KR102497694B1 (en) 2020-10-29 2020-10-29 System and Method for correcting facial asymmetry based expression training using correction mirror

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200141774A KR102497694B1 (en) 2020-10-29 2020-10-29 System and Method for correcting facial asymmetry based expression training using correction mirror

Publications (2)

Publication Number Publication Date
KR20220057008A KR20220057008A (en) 2022-05-09
KR102497694B1 true KR102497694B1 (en) 2023-02-07

Family

ID=81582217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200141774A KR102497694B1 (en) 2020-10-29 2020-10-29 System and Method for correcting facial asymmetry based expression training using correction mirror

Country Status (1)

Country Link
KR (1) KR102497694B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3217121B2 (en) * 1992-04-15 2001-10-09 オリンパス光学工業株式会社 Manufacturing method of sintered body
JP2007108620A (en) * 2005-10-13 2007-04-26 Ichiro Hagiwara Expression training machine
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101353921B1 (en) * 2012-05-23 2014-01-22 심수용 correction mirror
KR20150059629A (en) 2013-11-22 2015-06-01 조시순 Mirror to find the balance of user
ITUA20165257A1 (en) 2016-06-28 2017-12-28 Lettieri Clealia METHODOLOGY FOR THE REALIZATION OF A FUNCTIONAL ORTHODONTIC APPARATUS FOR THE TREATMENT OF FACIAL ASYMMETRY
KR101918119B1 (en) * 2017-03-10 2019-02-08 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face
JP3217121U (en) * 2018-05-08 2018-07-19 旭硝子株式会社 Mirror display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3217121B2 (en) * 1992-04-15 2001-10-09 オリンパス光学工業株式会社 Manufacturing method of sintered body
JP2007108620A (en) * 2005-10-13 2007-04-26 Ichiro Hagiwara Expression training machine
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus

Also Published As

Publication number Publication date
KR20220057008A (en) 2022-05-09

Similar Documents

Publication Publication Date Title
CN108780228B (en) Augmented reality system and method using images
US20170319065A1 (en) Information processing device, information processing method, and program
US11029830B2 (en) Display control apparatus, display controlling method and display control program for providing guidance using a generated image
US20080060652A1 (en) Mask fitting system and method
CN107123160A (en) Simulation lift face system, method and mobile terminal based on three-dimensional image
KR102172988B1 (en) Device and method for eyeliner-wearing guide
TWI729983B (en) Electronic device, system and method for adjusting display device
CN106934073A (en) Face comparison system, method and mobile terminal based on three-dimensional image
CN108888487A (en) A kind of eyeball training system and method
CN112469359B (en) Method for analyzing dental conditions
CN107273071A (en) Electronic installation, screen adjustment system and method
CN112741609B (en) Electronic device, control method of electronic device, and medium
CN106249407A (en) Prevention and the system of myopia correction
US11321764B2 (en) Information processing apparatus and information processing method
CN116370131A (en) Apparatus for implementing a method for analyzing a tooth condition
CN107329570A (en) A kind of method that display device angle is automatically adjusted according to individual beholder position
KR102497694B1 (en) System and Method for correcting facial asymmetry based expression training using correction mirror
CN102131064A (en) Television with health status monitoring remind function and implementation method thereof
CN109620265A (en) Recognition methods and relevant apparatus
CN113035000A (en) Virtual reality training system for central integrated rehabilitation therapy technology
CN114303142A (en) Image generation device
KR102497691B1 (en) System and method for correcting facial asymmetry linked to smart phone using correction mirror
CN106249408A (en) Adjustable virtual reality glasses and prevention and the optical system of myopia correction
KR102497688B1 (en) Method for correcting facial asymmetry using expression training
CN115414565B (en) Mental therapy system and method based on delusion stimulation and meditation induction

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant