KR102497688B1 - Method for correcting facial asymmetry using expression training - Google Patents

Method for correcting facial asymmetry using expression training Download PDF

Info

Publication number
KR102497688B1
KR102497688B1 KR1020200132402A KR20200132402A KR102497688B1 KR 102497688 B1 KR102497688 B1 KR 102497688B1 KR 1020200132402 A KR1020200132402 A KR 1020200132402A KR 20200132402 A KR20200132402 A KR 20200132402A KR 102497688 B1 KR102497688 B1 KR 102497688B1
Authority
KR
South Korea
Prior art keywords
facial
reference line
image
user
service server
Prior art date
Application number
KR1020200132402A
Other languages
Korean (ko)
Other versions
KR20220049149A (en
Inventor
이세호
Original Assignee
이세호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이세호 filed Critical 이세호
Priority to KR1020200132402A priority Critical patent/KR102497688B1/en
Publication of KR20220049149A publication Critical patent/KR20220049149A/en
Application granted granted Critical
Publication of KR102497688B1 publication Critical patent/KR102497688B1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/30ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F5/00Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
    • A61F5/01Orthopaedic devices, e.g. splints, casts or braces
    • A61F5/04Devices for stretching or reducing fractured limbs; Devices for distractions; Splints
    • A61F5/05Devices for stretching or reducing fractured limbs; Devices for distractions; Splints for immobilising
    • A61F5/058Splints
    • A61F5/05841Splints for the limbs
    • A61F5/05858Splints for the limbs for the arms
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B23/00Exercising apparatus specially adapted for particular parts of the body
    • A63B23/025Exercising apparatus specially adapted for particular parts of the body for the head or the neck
    • A63B23/03Exercising apparatus specially adapted for particular parts of the body for the head or the neck for face muscles
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation

Abstract

본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화하여 사용자의 안면 비대칭 상태를 판단하며, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 기술에 관한 것이다.
본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법은, 서비스 서버에서 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 표정 영상으로 획득하는 제1 단계와, 서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계, 서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계, 서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계, 서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계, 서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및, 서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 한다.
The present invention determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and can easily correct the user's facial asymmetry through facial expression training of a balance model most similar to the user's facial skeleton. It's about technology that makes it possible.
A facial asymmetry correction service method using facial expression training according to the present invention includes a first step of acquiring facial images of each user with different facial expressions including expressionless expressions as facial expression images in a service server; The second step of extracting a plurality of points of each part including the mouth, the first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server and the first horizontal reference line from both tear gland points is 1:1 A third step of generating a facial reference line composed of a vertical reference line extending from the reference line position and the center point between both lacrimal gland points and a second horizontal reference line extending connecting both lip tail points, the vertical reference line and Gravity consisting of a vertical vertical gravity line mutually perpendicular to the point where the first horizontal reference lines meet, a horizontal first horizontal gravity line, and a second horizontal gravity line perpendicular to the vertical gravity line based on the lip tail point on the higher side. A fourth step of generating a reference line, the service server determines an asymmetric type based on whether or not the face reference line is inclined and the direction of the facial reference line with respect to each gravity reference line, and the asymmetric type is the first asymmetric type in which only the second horizontal reference line is in an inclined state. and a second asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in different directions, and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction. The fifth step, the sixth step of determining the standard model of the facial structure most similar to the user's face from the standard models pre-registered in the service server, and analyzing the facial movement using the user's expression image, and the service server, the asymmetric type and It is characterized in that it comprises a seventh step of generating a facial expression training schedule consisting of training information to have a standard model facial expression image based on the facial motion analysis result and providing it to the user terminal.

Description

표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법{Method for correcting facial asymmetry using expression training}Facial asymmetry correction service method using expression training {Method for correcting facial asymmetry using expression training}

본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화하여 사용자의 안면 비대칭 상태를 판단하며, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 기술에 관한 것이다.The present invention determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and can easily correct the user's facial asymmetry through facial expression training of a balance model most similar to the user's facial skeleton. It's about technology that makes it possible.

안면의 움직임은 안면을 구성하는 수 많은 근육이 22개의 뼈조각과 서로 연결되어 상호작용하게 되는데 안면 비대칭은 이러한 근골격계의 복합적인 원인에 의한 결과로서 나타나는 현상이다. The movement of the face interacts with the numerous muscles that make up the face by being connected to 22 bone pieces. Facial asymmetry is a phenomenon that appears as a result of these complex causes of the musculoskeletal system.

안면 비대칭의 주원인은 개인의 생활 습관(저작, 수면자세, 손으로 턱괴기, 상하반신의 자세 불균형)과 매우 밀접하게 연관되어 있으며 이러한 습관은 오랜 시간동안 안면의 근골격계에 영향을 주게 되어 안면 근육의 수축이완 및 긴장, 사용 유무 그리고 그 근육에 의한 안면과 두상의 골격의 변화 등으로 나타난다. The main cause of facial asymmetry is very closely related to an individual's lifestyle (mastication, sleeping posture, chin resting with hands, postural imbalance of the upper and lower body), and these habits affect the musculoskeletal system of the face for a long time, resulting in the loss of facial muscles. It appears as contraction relaxation and tension, whether or not it is used, and changes in the skeletal structure of the face and head due to the muscles.

또한 안면 비대칭의 결과는 턱관절의 균형과 움직임에 매우 깊은 영향을 줄 수 있다.Also, the consequences of facial asymmetry can have a very profound effect on the balance and movement of the temporomandibular joint.

턱관절은 경락체계와 뇌의 활동을 조절하는 부위로서 턱 관절이 뇌 활동 치료의 근본이 되기도 하는데 그 이유는 턱관절 주변으로는 수많은 신경과 혈관들이 지나가기 때문에 안면 비대칭이 발생할 경우 신경체계의 밸런스가 깨지면서 많은 문제점들을 야기할 수 있기 때문이다.The temporomandibular joint is a part that regulates the meridian system and brain activity, and the temporomandibular joint is also the basis of brain activity treatment. The reason is that numerous nerves and blood vessels pass around the temporomandibular joint, so if facial asymmetry occurs, the balance of the nervous system This is because breaking can cause many problems.

이를 방치할 경우 만성두통, 부종, 혈색변화, 어깨걸림, 어지러움증, 구토, 저작의 어려움, 호르몬 분비 이상과 같은 신경과 근육계통의 질환을 발생시키기 때문에 조기에 안면 불균형 현상을 인식해서 원인을 해결하고 그 경과 진행을 방지할 필요가 있다.If left unattended, it can cause chronic headaches, edema, color changes, shoulder hangs, dizziness, vomiting, difficulty in chewing, and disorders of the nervous and muscular system, such as abnormal secretion of hormones. It is necessary to prevent its progress.

또한, 안면 비대칭은 대인관계에 좋지 않은 인상을 심어줄 수 있을 뿐 만 아니라 외모적 스트레스와 콤플렉스가 되기 때문에 사회적 관계에 있어서 자기효능감에도 좋지 않은 영향을 줄 수 있다.In addition, facial asymmetry can not only give a bad impression on interpersonal relationships, but also negatively affect self-efficacy in social relationships because it causes appearance stress and complexes.

이는 자신감을 저하시키는 요인으로서, 자신의 의사를 정확히 상대방에게 전달하거나 상대방을 설득하는데 있어서 심리적 소극성으로 이어져 주도적인 감정표현과 자립심의 영역에도 영향을 미치고 자신의 사회적 영향력을 제한하거나 축소시켜 환경에 종속되는 방향으로 가기 쉬워진다.This is a factor that lowers self-confidence, leading to psychological passivity in accurately conveying one's intentions to the other person or persuading the other person, affecting the area of leading emotional expression and self-reliance, and limiting or reducing one's social influence to subordinate to the environment. The easier it is to go in that direction.

이러한 결과로 인해 안면비대칭은 질환적인 문제에만 국한되지 않고 개인의 사회성 및 자기효능감에 관련된 삶의 심리적 이슈와도 매우 밀접하게 관련되어 있어 이를 해결해야 할 필요가 있다. As a result of these results, facial asymmetry is not limited to disease problems, but it is very closely related to psychological issues in life related to individual sociality and self-efficacy, so it is necessary to solve this problem.

이를 위해 안면 비대칭 관련 시술이나 수술들의 방법들이 이용되고 있으나, 현재 이용되는 안면 비대칭 관련 시술이나 수술적인 방법들은 병원에서 전문적인 장비들을 이용하는 것으로 많은 비용이 소요되는 단점이 있다. To this end, facial asymmetry-related procedures or surgical methods have been used, but currently used facial asymmetry-related procedures or surgical methods use specialized equipment in hospitals, and thus have the disadvantage of requiring a lot of cost.

1. 일본공개특허 제2019-524397호 (명칭 : 안면 비대칭을 치료하기 위한 치열 교정 장치를 실현하는 방법)1. Japanese Patent Laid-open Publication No. 2019-524397 (Title: Method for realizing an orthodontic appliance for treating facial asymmetry)

이에, 본 발명은 상기한 사정을 감안하여 창출된 것으로, 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화여 사용자의 안면 비대칭 상태를 판단하고, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 제공함에 그 기술적 목적이 있다.Therefore, the present invention was created in view of the above circumstances, and determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and trains the facial expression of the balance model most similar to the user's facial skeleton. Its technical purpose is to provide a facial asymmetry correction service method using facial expression training that enables users to easily correct facial asymmetry through

상기 목적을 달성하기 위한 본 발명의 일측면에 따르면, 서비스 서버에서 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 표정 영상으로 획득하는 제1 단계와, 서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계, 서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계, 서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계, 서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계, 서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및, 서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.According to one aspect of the present invention for achieving the above object, a first step of obtaining facial images of each user with different facial expressions including expressionless expressions in a service server as facial expression images, A second step of extracting a plurality of points of each part including a first horizontal reference line in which the distance between the first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server and the first horizontal reference line at both lacrimal gland points is 1:1 A third step of generating a facial reference line consisting of a vertical reference line extending from the center point between the position and both lacrimal gland points and a second horizontal reference line extending connecting both lip tail points; 1 Gravity reference line consisting of a vertical vertical gravity line mutually perpendicular to the point where the horizontal reference lines meet, a first horizontal gravity line in the horizontal direction, and a second horizontal gravity line perpendicular to the vertical gravity line based on the upper lip tail point In the fourth step of generating, the service server determines an asymmetric type based on whether or not the facial reference line is inclined and the direction of the facial reference line with respect to each gravity reference line, the asymmetric type is the first asymmetric type in which only the second horizontal reference line is in an inclined state and , a second asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in different directions, and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction. 5th step, a 6th step of determining a standard model of a facial structure most similar to the user's face from standard models pre-registered in the service server and analyzing facial movements using the user's facial expression image, and asymmetric type and face in the service server A facial asymmetry correction service using facial expression training, characterized in that it comprises a seventh step of generating a facial expression training schedule consisting of training information to have a facial expression image of a standard model based on the motion analysis result and providing it to the user terminal. A method is provided.

또한, 상기 제1 단계에서 서비스 서버는 무표정, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말로 제시하고, 각 유도 문장에 대한 반응 표정을 사용자의 기본 표정 영상으로 획득하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the first step, the service server presents various induction sentences for inducing facial expressions of expressionless expression, joy, surprise, fear, sadness, anger, and disgust to the user terminal, and the reaction expression for each induction sentence is the user's basic Provided is a facial asymmetry correction service method using facial expression training, characterized in that it is acquired as a facial expression image.

삭제delete

또한, 상기 제6 단계에서 서비스 서버는 상기 제1 단계에서 획득한 사용자 표정 영상을 조합하여 사용자 표정 영상을 추가 생성한 후, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하고, 상기 제7 단계에서 서비스 서버는 추가 생성된 표정 영상을 포함한 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보를 생성하며, 상기 추가 생성되는 표정 영상은 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the sixth step, the service server combines the user facial expression images acquired in the first step to additionally generate a user facial expression image, and then analyzes the facial movement using the user facial expression image including the additionally generated facial expression image. , In the seventh step, the service server generates training information to have a standard model facial expression image including an additionally generated facial expression image, and the additionally generated facial expression image includes a joy image, a surprise image, a fear image, A facial asymmetry correction service method using facial expression training, characterized by sequentially generating a satisfaction image, a boundary image, a worry image, a discouragement image, a hardened image, and a contempt image by sequentially combining sadness images, anger images, and disgust images. Provided.

또한, 상기 제4 단게에서 서비스 서버는 중력 기준선과 양쪽 각 부위 포인트간의 거리와 부위 포인트들간 거리를 근거로 비대칭 속성값을 산출하고, 상기 제7 단계에서 서비스 서버는 비대칭 속성값과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the fourth step, the service server calculates an asymmetric attribute value based on the distance between the gravity reference line and each part point on both sides and the distance between the part points, and in the seventh step, the service server calculates the facial movement related to the asymmetric attribute value. A facial asymmetry correction service method using facial expression training is provided, wherein training information is generated by selecting a certain number of facial expression images in a large order.

또한, 상기 제7 단계에서 서비스 서버는 사용자 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the seventh step, the service server compares the user's facial expression image with the facial expression image of the standard model, calculates the facial movement difference for each facial expression image, selects a certain number of facial expression images in the order of the largest facial movement difference, and obtains training information. There is provided a facial asymmetry correction service method using facial expression training, characterized in that for generating.

본 발명에 의하면, 다양한 표정의 얼굴 영상 분석을 통해 안면 수치를 측정하고, 이를 통해 안면 비대칭 상태를 판단하며, 자신의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있다. According to the present invention, facial values are measured through facial image analysis of various facial expressions, facial asymmetry is determined through this, and facial asymmetry of the user is easily corrected through facial expression training of a balance model most similar to the user's facial skeleton. can do.

또한, 사용자가 자신 얼굴의 비대칭성을 인식하고 원인을 파악하여 나쁜 습관을 방지하고 잘못된 근골격 상태를 비시술 및 비수술적인 방법으로 개선할 수 있다. In addition, the user can recognize the asymmetry of his or her face and identify the cause to prevent bad habits and improve the wrong musculoskeletal condition by non-surgical and non-surgical methods.

또한, 본 발명에 의하면 자신과 가장 닮은 꼴의 얼굴 특징을 갖는 매력적인 얼굴 표정 연습을 통해 대인관계에서 보다 좋은 인상을 줄 수 있다.In addition, according to the present invention, it is possible to give a better impression in interpersonal relationships through the practice of attractive facial expressions having facial features most similar to one's own.

도1은 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템의 개략적인 구성을 도시한 도면.
도2는 본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명하기 위한 흐름도.
도3은 도2에 도시된 안면 수치 정보를 추출하는 과정(ST200)을 설명하기 위한 흐름도.
도4와 도5는 도3에서 추출된 안면 수치 정보를 무표정 영상에 예시한 도면.
도6은 도2에 도시된 비대칭 타입 결정 방법(ST300)을 설명하기 위한 도면.
1 is a diagram showing a schematic configuration of a facial asymmetry correction service system using facial expression training to which the present invention is applied.
Figure 2 is a flow chart for explaining a facial asymmetry correction service method using facial expression training according to the present invention.
3 is a flowchart for explaining a process (ST200) of extracting facial numerical information shown in FIG. 2;
4 and 5 illustrate the facial numerical information extracted in FIG. 3 in an expressionless image.
6 is a diagram for explaining an asymmetric type determination method (ST300) shown in FIG. 2;

본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The embodiments described in the present invention and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, so the scope of the present invention is limited to the embodiments and drawings described in the text. should not be construed as being limited by That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as being consistent with meanings in the context of related art, and cannot be interpreted as having ideal or excessively formal meanings that are not clearly defined in the present invention.

도1은 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a facial asymmetry correction service system using facial expression training to which the present invention is applied.

도1을 참조하면, 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템은 사용자 단말(100)과, 서비스 서버(200)를 포함하여 구성되고, 서비스 서버(200)는 정보 획득부(210)와, 안면상태 분석부(220), 트레이닝 처리부(230) 및, 데이터 저장소(240)를 포함한다.Referring to FIG. 1, a facial asymmetry correction service system using facial expression training to which the present invention is applied includes a user terminal 100 and a service server 200, and the service server 200 includes an information acquisition unit 210. ), a facial state analysis unit 220, a training processing unit 230, and a data storage 240.

사용자 단말(100)은 카메라(1)를 구비한 개인통신단말로서, 스마트 폰이나 태블릿 PC 등의 무선 단말이거나 또는 노트북이나 데스크 탑 등의 유선 단말이 될 수 있다. The user terminal 100 is a personal communication terminal having a camera 1, and may be a wireless terminal such as a smart phone or tablet PC, or a wired terminal such as a laptop or desktop.

사용자 단말(100)은 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 서비스 서버(200)로 전송한다. 이때, 사용자 단말(100)은 사용자 생활습관 관련 설문에 대응되는 설문응답정보와, 안면 교정 서비스를 위한 서비스 선택 정보 및, 트레이닝에 따른 환경정보를 포함한 안면 교정 관련 각종 정보를 서비스 서버(200)전송한다. The user terminal 100 transmits face images of each user with different facial expressions, including expressionless expressions, to the service server 200 . At this time, the user terminal 100 transmits to the service server 200 various information related to facial correction, including survey response information corresponding to a questionnaire related to the user's lifestyle, service selection information for facial correction service, and environmental information according to training. do.

정보 획득부(210)는 사용자 단말(100)로부터 전송되는 얼굴 영상을 수집한다. 이때, 정보 획득부(210)는 목적하는 다양한 표정의 얼굴 영상 즉, 표정 영상을 획득하기 위한 표정 유도정보를 사용자 단말(100)로 제공하고, 이에 대한 반응 표정을 촬영하여 서로 다른 다수의 표정 영상을 획득할 수 있다.The information acquisition unit 210 collects face images transmitted from the user terminal 100 . At this time, the information acquisition unit 210 provides the user terminal 100 with facial expression induction information for obtaining facial images of various facial expressions, that is, facial expression images, and photographs reaction facial expressions thereto to capture a plurality of different facial expression images. can be obtained.

안면상태 분석부(220)는 정보 획득부(210)에서 수집한 표정 영상을 분석하여 안면정보를 수치화하고, 안면 수치정보를 근거로 비대칭 속성값을 산출한다. 이때, 안면상태 분석부(220)는 Open CV(Open Source Computer Vision) 알고리즘을 이용하여 얼굴 영상에서 안면의 전체적인 윤곽과 각 부위의 위치, 크기, 각도, 간격 등을 측정하여 수치화한다.The facial state analyzer 220 analyzes the facial expression image collected by the information acquisition unit 210 to digitize the facial information and calculates an asymmetric attribute value based on the facial numerical information. At this time, the facial state analyzer 220 measures and digitizes the overall contour of the face and the position, size, angle, interval, etc. of each part in the face image using Open CV (Open Source Computer Vision) algorithm.

또한, 안면상태 분석부(220)는 생활습관 관련 설문응답정보를 안면 비대칭상태 분석에 추가로 적용할 수 있다.In addition, the facial state analyzer 220 may additionally apply lifestyle-related questionnaire response information to the facial asymmetry state analysis.

트레이닝 처리부(230)는 비대칭 속성값을 근거로 해당 사용자 안면의 비대칭 타입을 결정함과 더불어, 모델 빅데이터에서 해당 안면 골격과 가장 유사한 표준 모델을 결정하고, 얼굴의 각 부위가 학습된 CNN(합성곱 신경망, Convolutional neural network) 모델과 RNN(순환 신경망, Recurrent neural network) 모델에 사용자 표정영상을 적용하여 해당 사용자의 안면 움직임을 분석한다. 그리고, 트레이닝 처리부(230)는 사용자의 비대칭 속성값과 표준 모델의 균형 안면 수치정보를 비교하여 그 차이를 분석한다.The training processing unit 230 determines the asymmetric type of the user's face based on the asymmetric attribute value, determines the standard model most similar to the corresponding facial skeleton in the model big data, and determines each part of the face is trained CNN (synthesis The user's facial movement is analyzed by applying the user's facial expression image to the convolutional neural network (RNN) model and the recurrent neural network (RNN) model. Then, the training processing unit 230 compares the user's asymmetric attribute value with the balance facial numerical information of the standard model and analyzes the difference.

또한, 트레이닝 처리부(230)는 안면 수치정보를 근거로 비대칭 타입을 결정하고, 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성한다.In addition, the training processing unit 230 determines the asymmetric type based on the facial numerical information, and creates a facial expression training schedule consisting of training information to have a facial expression image of the standard model based on the asymmetric type and the facial motion analysis result.

또한, 트레이닝 처리부(230)는 트레이닝 정보를 사용자 단말(100)로 전송하고, 이에 대응하여 사용자 단말(100)로부터 입력되는 트레이닝 피드백정보를 수집한다. 또한, 트레이닝 처리부(230)는 트레이닝 피드백정보를 안면상태 분석부(220)로 제공하여 분석요청하고, 그 분석결과에 기반하여 트레이닝 평가정보를 생성하여 사용자 단말(100)로 제공한다.In addition, the training processor 230 transmits training information to the user terminal 100 and collects training feedback information input from the user terminal 100 in response thereto. In addition, the training processing unit 230 provides training feedback information to the facial state analysis unit 220 to request analysis, generates training evaluation information based on the analysis result, and provides it to the user terminal 100 .

데이터 저장소(240)는 안면 교정서비스를 제공하기 위한 각종 정보를 저장하는 것으로, Open CV 알고리즘과, 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델, 안면 타입별 균형의 표준 모델, 설문정보, 비대칭 타입별 기준 정보를 포함한 정보들이 저장된다. 여기서, CNN 모델은 안면 부위의 움직임을 측정하기 위한 AI 알고리즘이고, RNN 모델은 CNN 모델과 연동되어 움직이는 안면 근육의 상호작용과 수직 이완 정보 및 방향을 측정하기 위한 AI 알고리즘이다. 또한, 표준 모델정보는 각 표준 모델별 다수의 서로 다른 표정 영상이 함께 저장된다. The data storage 240 stores various types of information for providing facial correction services, including the Open CV algorithm, CNN and RNN models trained on each part of the face, standard models of balance for each facial type, survey information, and asymmetry. Information including reference information for each type is stored. Here, the CNN model is an AI algorithm for measuring movement of facial parts, and the RNN model is an AI algorithm for measuring interaction, vertical relaxation information and direction of facial muscles moving in conjunction with the CNN model. In addition, standard model information is stored together with a plurality of different facial expression images for each standard model.

이어, 상기한 구성으로 된 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명한다.Next, a facial asymmetry correction service method using facial expression training having the above configuration will be described.

도2는 본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a facial asymmetry correction service method using facial expression training according to the present invention.

먼저, 사용자는 사용자 단말(100)을 통해 서비스 서버(200)에 접속하여 본 발명에 따른 안면 비대칭 교정 서비스를 위한 안면교정 프로그램을 제공받아 설치한다. 이하에서 사용자 단말(100)은 안면교정 프로그램의 실행에 따라 하기의 동작을 수행하며, 카메라가 구비된 스마트 폰인 경우에 대해 설명한다. First, a user accesses the service server 200 through the user terminal 100 and receives and installs a facial correction program for a facial asymmetry correction service according to the present invention. Hereinafter, the user terminal 100 performs the following operations according to the execution of the face correction program, and the case of a smart phone equipped with a camera will be described.

사용자 단말(100)은 안면교정 프로그램이 실행된 상태에서, 서비스 서버(200)에 접속하여 카메라를 통해 자신의 얼굴 영상을 촬영하고, 이를 서비스 서버(200)에 전송한다(ST100). While the face correction program is running, the user terminal 100 accesses the service server 200, captures a face image of itself through a camera, and transmits it to the service server 200 (ST100).

상기 ST100 단계에서 서비스 서버(200)는 기 설정된 7가지의 서로 다른 표정을 갖는 얼굴 영상을 획득하기 위해 해당 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말(100)로 제공하고, 이에 대응되는 서로 다른 표정의 사용자 얼굴 영상을 사용자 단말(100)로부터 획득한다. In the step ST100, the service server 200 provides the user terminal 100 with various inducing sentences for inducing corresponding facial expressions in order to acquire face images having seven preset facial expressions, and different A user face image of a facial expression is obtained from the user terminal 100 .

즉, 본 발명에서 서비스 서버(200)는 유도 문장을 이용하여 무표정, 웃음, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오 의 7가지 기본 표정 영상을 획득한다. 하기 표1은 7가지 기본 표정 영상을 획득하기 위해 서비스 서버(200)에서 사용자 단말(100)로 제공되는 정보를 예시한 것이다.That is, in the present invention, the service server 200 acquires seven basic facial expression images of expressionless expression, laughter, joy, surprise, fear, sadness, anger, and disgust by using the induction sentence. Table 1 below illustrates information provided from the service server 200 to the user terminal 100 to acquire 7 basic facial expression images.

표 정
expression
문장특징 및 예시문장
Sentence Features and Example Sentences
무표정
expressionless
두손을 포개서 무릎이나 테이블에 올려놓고 아무도 없이 혼자 있을 때 무념무상의 표정을 지어 보세요.
Put your hands on your lap or on a table and make a look of indifference when you are alone with no one around.
웃 음
laugh
지금 들리는 음성의 톤과 빠르기를 그대로 따라해보세요.
’푸 하하하하’, ‘웃으면 복이옵니다’
Try to copy the tone and tempo of the voice you hear now.
'Fu hahahaha', 'Laughing brings blessings'
기 쁨
pleasure
오랜만에 사랑하는 연인, 반가운 친구나 가족을 만났을 때의 표정입니다.
머릿속으로 떠올리며 표정을 지어보세요.
‘친구야 반갑다 하하하 ’, ‘아빠(엄마) 사랑해요’ ‘우리 사랑하는 아들(딸)’
This is the expression of a loved one after a long time, or a good friend or family member.
Think of it in your head and make a facial expression.
'Nice to meet you, friend hahaha', 'I love you daddy (mom)''My beloved son (daughter)'
놀 람
surprised
지금 들리는 음성의 톤과 빠르기를 그대로 따라해보세요.
’뭐라고? 그게 사실이야?’, ‘깜작이야! 놀랬잖아?’
Try to copy the tone and tempo of the voice you hear now.
'what? Is that true?', 'I forgot! Aren't you surprised?'
두려움
fear
다음 이야기를 들어보세요.
‘물을 마시던 가젤에게 갑자기 악어가 들이닥쳤습니다. 물보라가 일고 가젤은 온힘을 다해 빠져나가려고 했지만 악어는 가젤을 강한 이빨로 물고 견딜 수 없는 힘으로 이리 저리 뒤흔들자 가젤은 힘없이 숨만 붙은 채 피와 흙탕물이 뒤섞인 물속으로 순식간에 끌려가 사라져버렸습니다’
이 이야기가 자신에게 일어났다고 상상하고 머릿속에 떠올려 보세요.
Listen to the following story.
'A crocodile suddenly attacked a gazelle that was drinking water. The spray rose and the gazelle tried with all its might to escape, but the crocodile grabbed the gazelle with its strong teeth and tossed it around with unbearable force. '
Imagine this story happening to you and keep it in your head.
슬 픔
sadness
당신에게 가장 슬펐던 순간은 언제입니까?
사랑하는 사람과 헤어졌던 날, 가슴이 아팠던 적이 있나요?
‘ 엄마, 나 여기에 가슴이 그냥 뻥 뚤린거 같아. 아무것도 없어, 아무리 채워도 넣을수가 없어, 아빠가 너무 보고 싶어. 지금 보고 싶어 엉엉’
What was the saddest moment for you?
Have you ever been heartbroken the day you broke up with someone you loved?
'Mom, I think my heart is just blown open here. There is nothing, no matter how much I fill it, I can't put it in. I miss my dad so much. I miss you right now noooo
분 노
anger
화가 난 상황을 상상하며 아래 사진을 본 느낌을 표정으로 지어 보세요.
‘데모하거나 항의하는 사람 또는 대치 중인’
Imagine a situation where you are angry and try to express your feelings when you see the picture below.
'A person demonstrating or protesting or in a standoff'
혐 오
hate
무언가 싫거나 끔직한 장면을 보았다면 어떤 표정을 짓겠습니까?
‘ 아이 더러워, 누가 똥밟았어? 어휴 냄새야. 우웩! 토나오려고 해’
What would your face look like if you saw something unpleasant or terrifying?
'You're dirty, who stepped on your ass? oh what a smell Wow! 'I'm about to throw up'

이때, 사용자 단말(100)은 표시창을 통해 촬영 포인트를 출력하여 사용자로하여금 응시하도록 하고, 사용자 단말(100)은 사용자의 조작에 따라 카메라를 이용하여 자신의 정면 얼굴과 측면 얼굴을 촬영한다. 여기서, 사용자는 정면 얼굴 촬영시에는 양쪽 귀의 크기가 일치하도록 하고, 측면 얼굴 촬영시에는 입술꼬리가 얼굴 윤곽선에 일치시키도록 한 상태에서 얼굴 영상 촬영을 수행한다. At this time, the user terminal 100 outputs a photographing point through the display window so that the user gazes at it, and the user terminal 100 photographs its front face and side face using a camera according to the user's manipulation. Here, the user performs face image capture in a state in which the sizes of both ears match when capturing the frontal face and the tails of the lips match the facial contour when capturing the side face.

이어 서비스 서버(200)는 무표정 얼굴 영상 즉, 무표정 영상을 근거로 사용자의 안면 수치 정보를 산출한다(ST200). Subsequently, the service server 200 calculates facial numerical information of the user based on the expressionless face image, that is, the expressionless image (ST200).

이때, 서비스 서버(200)는 무표정 영상을 Open CV 알고리즘에 적용하여 안면의 전체적인 윤곽과 각 부위의 위치, 크기, 각도, 간격 등을 측정하여 안면 비대칭 교정에 필요한 해당 사용자의 안면 수치 정보를 추출한다. At this time, the service server 200 applies the expressionless image to the Open CV algorithm to measure the overall contour of the face and the position, size, angle, and spacing of each part, and extracts the user's facial numerical information necessary for correcting facial asymmetry. .

안면 수치 정보를 추출하는 과정은 도3에 도시된 바와 같이, 먼저 서비스 서버(200)는 무표정 영상에서 기 설정된 부위 포인트를 추출한다(ST210). 도4에 도시된 바와 같이, 부위 포인트는 각 부위의 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4), 입술 꼬리(P5, P6), 귀밑 끝(P7,P8), 상측 입술 홈(P9)을 포함한다.In the process of extracting facial numerical information, as shown in FIG. 3 , the service server 200 first extracts preset body part points from an expressionless image (ST210). As shown in Figure 4, the site points are the lacrimal glands (P1, P2) of each site, the white tips of the eyes (P3, P4), the tails of the lips (P5, P6), the tips of the ears (P7, P8), and the upper lip. It includes a groove (P9).

또한, 서비스 서버(200)는 무표정 영상에서 각 부위 포인트를 이용하여 안면 기준선을 설정한다(ST220). 도4에 도시된 바와 같이, 안면 기준선은 안면의 세로 방향 중심상에 설정되는 세로 기준선(VL)과, 안면의 상측에 가로 방향으로 형성되는 제1 가로 기준선(HL1) 및, 안면의 하측에 가로 방향으로 형성되는 제2 가로 기준선(HL2)으로 이루어진다. In addition, the service server 200 sets facial reference lines using points of each part in the expressionless image (ST220). As shown in FIG. 4, facial reference lines include a vertical reference line VL set on the center of the face in the vertical direction, a first horizontal reference line HL1 formed in the horizontal direction on the upper side of the face, and a horizontal reference line HL1 on the lower side of the face. It consists of a second horizontal reference line HL2 formed in the direction.

안면 기준선 생성 과정은 먼저, 양쪽 눈썹 상단을 연결하는 연장 라인을 제1 가로 기준선(HL1)으로 생성한다.In the process of creating a facial reference line, first, an extension line connecting upper ends of both eyebrows is created as a first horizontal reference line HL1.

먼저 양쪽눈의 각 눈물샘 포인트(P1,P2)에서 제1 가로 기준선(HL1)까지의 거리가 1:1 인 위치의 제1 세로 포인트(VP1)를 설정하고, 양쪽눈의 눈물샘 포인트(P1,P2)간 연결선의 중앙점을 제2 세로 포인트(VP2)로 설정하여, 제1 세로 포인트(VP1)와 제2 세로 포인트(VP2)를 통과하면서 제1 가로 기준선(HL1)과 직각으로 만나는 연장 라인을 세로 기준선(VL)으로 생성한다.First, a first vertical point (VP1) is set at a position where the distance from each lacrimal point (P1, P2) of both eyes to the first horizontal reference line (HL1) is 1:1, and the lacrimal gland points (P1, P2) of both eyes are set. ) by setting the center point of the connection line between them as the second vertical point VP2, and passing through the first vertical point VP1 and the second vertical point VP2, an extension line meeting the first horizontal reference line HL1 at right angles It is created as a vertical reference line (VL).

또한, 양쪽 입술꼬리 포인트(P5,P6)를 연결하는 연장 라인을 제2 가로 기준선(HL2)으로 생성한다.In addition, an extension line connecting both lip tail points P5 and P6 is created as a second horizontal reference line HL2.

상기한 상태에서, 서비스 서버(200)는 도4에 도시된 바와 같이 각 포인트(P1 ~ P8) 및, 안면 기준선을 연결하여 안면 비대칭 상태를 판단하기 위한 측정 라인을 생성한다(ST230). 측정 라인은 양쪽 귀끝 포인트(P7,P8)를 제1 가로 기준선(HL1)에 수직하게 연결하는 라인과, 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트와 입술 홈(P9)을 연결하는 라인을 포함한다.In the above state, the service server 200 creates a measurement line for determining a facial asymmetry state by connecting the points P1 to P8 and the facial reference line as shown in FIG. 4 (ST230). The measurement line is a line connecting both ear tip points (P7, P8) perpendicularly to the first horizontal reference line (HL1), a line connecting both tear glands (P1, P2) and the white tip (P3, P4) points of the eye, A line connecting the points of the tails of the lips P5 and P6 and a line connecting the points of the tails of the lips P5 and P6 and the grooves of the lips P9 are included.

이어, 서비스 서버(200)는 도5에 도시된 바와 같이 세로 기준선(VL)과 제1 가로 기준선(HL1)이 만나는 포인트에 수직하는 세로 중력선(GL1)과 제1 가로 중력선(GL2)을 생성하고, 입술꼬리 중 보다 위로 올라간 입술꼬리 포인트를 기준으로 세로 중력선(GL1)과 수직하는 제2 가로 중력선(GL3)으로 이루어지는 중력 기준선을 생성한다(ST240).Then, as shown in FIG. 5, the service server 200 sets a vertical gravity line GL1 and a first horizontal gravity line GL2 perpendicular to the point where the vertical reference line VL and the first horizontal reference line HL1 meet. Then, based on the upper lip tail point among the lip tails, a gravity reference line consisting of a vertical gravity line GL1 and a second horizontal gravity line GL3 perpendicular to the vertical gravity line GL3 is generated (ST240).

그리고, 서비스 서버(200)는 중력 기준선을 기준으로 양쪽 각 부위 포인트간 거리, 서로 다른 부위 포인트간 거리, 측정 라인 간의 거리, 각도, 포인트들을 연결하는 측정 라인에 의해 형성되는 면의 면적 등의 수치값을 근거로 비대칭 속성값을 산출한다(ST250). 이때, 서비스 서버(200)는 안면의 모든 측정라인을 가로 중력선(GL1,GL2)에 평행되도록 회전시켜 비교 라인을 설정하고, 비교 라인과 사용자의 안면 측정라인간의 차이를 근거로 비대칭 속성값을 산출한다. 본 발명에서 비대칭 속성은 비대칭 여부를 판단하기 위한 항목으로, 양쪽 귀끝 높이, 양 눈의 크기, 양 눈의 수평 높이, 입술끝점의 수평높이, 코의 좌우 균형, 입의 좌우 균형, 좌우 눈썹과 입꼬리의 길이, 얼굴의 좌우 면적 등을 포함한다.In addition, the service server 200 measures the distance between each part point on both sides of the gravity reference line, the distance between different part points, the distance between measurement lines, the angle, and the area of the surface formed by the measurement line connecting the points. An asymmetric attribute value is calculated based on the value (ST250). At this time, the service server 200 sets a comparison line by rotating all measurement lines of the face parallel to the horizontal gravity lines GL1 and GL2, and determines the asymmetric attribute value based on the difference between the comparison line and the user's face measurement line. yield In the present invention, the asymmetry attribute is an item for determining asymmetry, the height of both ear tips, the size of both eyes, the horizontal height of both eyes, the horizontal height of the lip tip, the left and right balance of the nose, the left and right balance of the mouth, the left and right eyebrows and the corners of the mouth length, and the left and right areas of the face.

이어, 서비스 서버(200)는 상기 ST200 단계에서 산출된 안면 수치 정보를 근거로 비대칭 타입을 결정한다(ST300). 이때, 서비스 서버(200)는 도4에 도시된 사용자 안면 기준선과 도5에 도시된 중력 기준선을 비교하여 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 결정하고, 안면 기준선의 경사 상태에 따라 비대칭 타입을 결정한다.Subsequently, the service server 200 determines the asymmetric type based on the facial numerical value information calculated in the step ST200 (ST300). At this time, the service server 200 compares the user's face reference line shown in FIG. 4 with the gravity reference line shown in FIG. Determine the asymmetric type according to

도6에는 3가지의 비대칭 타입이 예시되어 있다.In Fig. 6, three types of asymmetry are illustrated.

도6을 참조하면, 본 발명에서는 수평 기준선(HL1,HL2)의 경사 여부 및 경사 방향에 따라 비대칭 타입을 3가지로 구분한다. 제1 비대칭 타입(A)은 제2 가로 기준선만 경사 상태인 경우이고, 제2 비대칭 타입은 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 경우이며, 제3 비대칭 타입은 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 경우로 구분된다. Referring to FIG. 6 , in the present invention, three types of asymmetric types are classified according to whether the horizontal reference lines HL1 and HL2 are inclined and the direction of the inclination. The first asymmetric type (A) is a case where only the second horizontal reference line is inclined, the second asymmetric type is a case where the second horizontal reference line and the first horizontal reference line are inclined in different directions, and the third asymmetric type is a case where the second horizontal reference line and the first horizontal reference line are inclined in different directions. It is divided into a case where the horizontal reference line and the first horizontal reference line are inclined in the same direction.

제1 비대칭 타입(A)은 가장 초기단계의 안면 비대칭 상태로서, 제2 가로 기준선(HL2)만 경사 상태로 설정된다. 이는 아래턱이 좌측아래턱(하악)이 좌측 혹은 우측으로 틀어진 상태이며, 아래턱 이외의 부위에서는 아직 비대칭이 뚜렷하게 나타나지 않은 상태로 분석된다. The first asymmetry type A is the facial asymmetry state at the earliest stage, and only the second horizontal reference line HL2 is set to an inclined state. This is a state in which the lower jaw is distorted to the left or the right, and the asymmetry is not yet evident in areas other than the lower jaw.

제2 비대칭 타입(B)은 제1 비대칭 타입(A) 상태에서 하악의 틀어짐이 더 심해지면서 나타나는 상태로, 가장 흔한 안면 비대칭 유형이다. 제2 비대칭 타입(B)은 제1 및 제2 가로 기준선(HL1,HL2)이 모두 경사 상태로서, 서로 다른 방향으로 경사 형성된 상태로 설정된다. 이는 아래턱이 틀어진 방향으로 측두골이 밀려나면서 외회전 위턱(상악)이 아래턱과 같은 방향으로 틀어지고, 아래턱이 틀어진 방향으로 눈과 광대가 주저앉으면서 얼굴이 찌그러져 보이는 유형으로 분석되며, 아래턱이 틀어진 방향으로 코가 휘는 경우가 많다. 이 경우, 노화가 진행되면 찌그진 방향으로 눈가주름, 팔자주름 등도 더 깊이 유발되는 특징을 갖는다.The second asymmetric type (B) is a condition in which the distortion of the lower jaw becomes more severe in the first asymmetry type (A) state, and is the most common facial asymmetry type. In the second asymmetric type (B), both the first and second horizontal reference lines HL1 and HL2 are inclined, and are set to be inclined in different directions. This is analyzed as a type in which the externally rotated upper jaw (maxilla) is twisted in the same direction as the lower jaw as the temporal bone is pushed in the direction the lower jaw is distorted, and the eyes and cheekbones sink in the direction the lower jaw is distorted, causing the face to look distorted. The nose is often crooked. In this case, as aging progresses, wrinkles around the eyes and nasolabial folds are induced more deeply in a distorted direction.

제3 비대칭 타입(C)은 가장 심한 안면 비대칭 유형으로, 제1 및 제2 가로 기준선(HL1,HL2)이 모두 경사 상태로서, 동일 방향으로 경사 형성된 상태로 설정된다. 이는 제2 비대칭 타입(B)에서 비대칭이 더욱 진행되어 측두골과 접형골 등 두개골의 변위 진행한 상태로서, 아래턱과 반대방향으로 위턱이 틀어지고 코가 휜 상태로, 아래턱이 틀어진 방향으로 눈매와 광대선이 위로 올라간 상태이며, 안면뼈와 두개골의 변위가 가장 많이 진행된 유형으로 분석된다. The third asymmetry type (C) is the most severe type of facial asymmetry, and the first and second horizontal reference lines HL1 and HL2 are both inclined and set to be inclined in the same direction. This is a state in which the asymmetry has progressed further in the second asymmetric type (B) and the displacement of the skull, such as the temporal bone and the sphenoid bone, has progressed. This is the upward state, and the displacement of the facial bones and skull is analyzed as the most advanced type.

이어, 서비스 서버(200)는 상기 ST200 단계에서 산출된 안면 수치 정보를 근거로 데이터 저장소(240)에 기 등록된 안면 대칭형의 표준 모델 중 해당 사용자의 안면 수치, 바람직하게는 골격 수치가 가장 유사한 표준 모델을 결정한다(ST400). 이때, 서비스 서버(200)는 중력 중심선을 기준으로 각 부위 포인트 및 측정 라인이 균형을 이루도록 변환하고, 변환된 균형 수치를 근거로 최적의 표준 모델을 결정한다. Subsequently, the service server 200 determines the user's face value, preferably, the most similar skeletal value among the symmetric face standard models registered in the data storage 240 based on the facial value information calculated in step ST200. Determine the model (ST400). At this time, the service server 200 transforms each part point and measurement line to be balanced based on the center line of gravity, and determines an optimal standard model based on the converted balance value.

그리고, 서비스 서버(200)는 사용자의 다양한 표정 영상을 근거로 사용자의 안면 움직임을 분석한다(ST500).Then, the service server 200 analyzes the user's facial movements based on the user's various facial expression images (ST500).

이때, 서비스 서버(200)는 서로 다른 7가지 표정 영상을 빅 데이터화된 얼굴 영상 데이터 셋으로부터 학습된 GANs(Generative Adversarial Networks, 심층 합성곱 생성적 적대 신경망)을 이용하여 6가지 표정의 얼굴 영상을 추가로 생성한다.At this time, the service server 200 uses GANs (Generative Adversarial Networks, deep convolutional generative adversarial networks) learned from big data facial image data sets of 7 different facial expression images to add 6 facial images of facial expressions create with

하기 표2와 같은 방식의 표정 영상 조합을 통해 6가지의 새로운 표정 영상을 생성한다. Six new facial expression images are generated through the combination of facial expression images in the manner shown in Table 2 below.

기본 표정
default expression
합성 표정
synthetic expression
GAN을 통해 생성된 표정
Facial expression generated by GAN
2.기쁨
2. Joy
1.무표정
1. Expressionless
8.만족
8. Satisfaction
3.놀람
3. Surprise
9.경계
9. Boundary
4.두려움
4. Fear
10.걱정
10. Worry
5.슬픔
5. Sorrow
11.낙담
11. Discouragement
6.분노
6. Anger
12.굳어짐
12. Hardened
7.혐오
7. Dislike
13.멸시
13. Contempt

표2를 참조하면, 기본 표정과 합성 표정은 상기 ST100 단계에서 사용자 단말(100)로부터 획득한 얼굴 영상이고, GAN을 통해 생성된 표정은 추가로 생성된 얼굴 영상으로, 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성한다. 예컨대, 표2에서 "만족" 표정 영상은 기쁨 표정 영상과 무표정 영상을 조합하여 생성되고, "경계" 표정 영상은 "놀람" 표정 영상과 무표정 영상을 조합하는 형태로 생성된다. Referring to Table 2, the basic facial expression and synthesized facial expression are face images obtained from the user terminal 100 in step ST100, and the facial expressions generated through GAN are additionally generated face images. By sequentially combining images, fear images, sadness images, anger images, and disgust images, a satisfaction image, a caution image, a worry image, a discouragement image, a hardened image, and a contempt image are sequentially created. For example, in Table 2, a “satisfied” facial expression image is generated by combining a happy facial expression image and an expressionless expression image, and a “border” facial expression image is generated by combining a “surprise” facial expression image and an expressionless expression image.

즉, 서비스 서버(200)는 총 13가지 표정 영상을 해당 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델에 적용하여 해당 사용자의 안면 움직임을 분석한다. 이때, 서비스 서버(200)는 대화시 사용자의 얼굴 근육의 움직임을 측정하기 위해 기 설정된 짧은 문장을 제시하고 해당 문장을 읽는 얼굴 영상을 사용자 단말(100)로부터 획득함과 더불어, 기 설정된 대화내용을 출력하여 해당 대화를 듣는 상태의 얼굴 영상을 사용자 단말(100)로부터 획득하여 이를 안면 움직임 분석에 추가적으로 반영할 수 있다. That is, the service server 200 analyzes the user's facial movement by applying a total of 13 facial expression images to the CNN model and the RNN model in which each part of the face has been learned. At this time, the service server 200 presents a preset short sentence to measure the movement of the user's facial muscles during a conversation, acquires a face image reading the sentence from the user terminal 100, and displays the preset conversation content. A face image in a state of outputting and listening to a corresponding conversation may be obtained from the user terminal 100 and additionally reflected in the facial motion analysis.

이어, 서비스 서버(200)는 상기 ST300 단계에서 결정된 비대칭 타입과 ST500 단계에서 결정된 안면 움직임 분석결과를 근거로 날짜별 순차적인 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하고, 이를 사용자 단말(100)로 전송한다(ST600, ST700).Subsequently, the service server 200 generates a facial expression training schedule consisting of sequential training information for each date based on the asymmetric type determined in step ST300 and the facial movement analysis result determined in step ST500, and transmits it to the user terminal 100 (ST600, ST700).

이때, 서비스 서버(200)는 사용자의 기준 표정과 추가 생성된 표정을 포함한 13가지의 표정에 대한 표준 모델의 표정 영상 즉, 표준 영상을 목표로 하는 표정 트레이닝 스케쥴을 생성한다. 즉, 서비스 서버(200)는 사용자의 표정 영상과 표준 영상을 비교하여 해당 표정이 나타나도록 하기 위한 표정 트레이닝 스케쥴을 생성한다.At this time, the service server 200 creates a facial expression training schedule targeting the standard model facial expression images for 13 facial expressions including the user's standard facial expression and additionally generated facial expressions, that is, the standard image. That is, the service server 200 compares the user's facial expression image with the standard image and creates a facial expression training schedule for displaying the corresponding facial expression.

예컨대, 서비스 서버(200)는 비대칭 속성과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 영상의 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. For example, the service server 200 may select a certain number of facial expression images in order of increasing facial movements related to the asymmetric attribute, and generate training information to make the corresponding facial expressions become facial expressions of the standard image.

또한, 서비스 서버(200)는 해당 사용자의 각 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 영상의 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. In addition, the service server 200 compares each facial expression image of the corresponding user with the facial expression image of the standard model to calculate the facial movement difference for each facial expression image, selects a certain number of facial expression images in the order of the largest facial movement difference, and selects the corresponding facial expression. Training information to be the facial expression of this standard image can be generated.

이러한 표정 트레이닝 스케쥴은 각 표정에 대한 근육풀기와, 얼굴 움직임, 포인트 지압, 마시지로 이루어지는 기본 표정 트레이닝과, 얼굴 부위의 움직임을 개별적으로 연습한 후 2개 이상의 얼굴 부위를 동시에 움직이는 연습을 수행하며, 표정을 단계적으로 짓도록 한 다음, 표정을 한 번에 짓도록 하는 동작으로 이루어지는 단계 트레이닝 및, 무표정 상태의 개선점을 도출하여 부드럽고 호감가는 표정을 이미지로 생성하여 제시하고, 개선이 필요한 부위에 대한 트레이닝 요소를 도출하여 훈련을 수행하는 호감 트레이닝을 포함할 수 있다. 여기서 호감 트레이닝을 위한 표준 모델은 사용자의 안면 골격과 유사한 다수의 모델 중에서 사용자 단말(100)을 통해 사용자가 직접 선택할 수 있다.This facial expression training schedule includes basic facial expression training consisting of muscle relaxation for each expression, facial movement, point acupressure, and massage, and practice of moving two or more facial parts simultaneously after practicing the movements of the facial parts individually, Step-by-step training consisting of making facial expressions step by step and then making facial expressions at once, deriving improvement points from expressionless state, generating and presenting images of soft and likeable facial expressions, and training on areas in need of improvement It may include liking training in which elements are derived and training is performed. Here, the standard model for liking training may be directly selected by the user through the user terminal 100 from among a plurality of models similar to the user's facial skeleton.

한편, 사용자 단말(100)은 서비스 서버(200)로부터 제공되는 트레이닝 스케줄에 따른 자신의 표정 영상을 트레이닝 피드백 정보로서 서비스 서버(200)로 전송한다(ST800). Meanwhile, the user terminal 100 transmits its own facial expression image according to the training schedule provided from the service server 200 to the service server 200 as training feedback information (ST800).

서비스 서버(200)는 사용자 단말(100)로부터 수신된 트레이닝 피드백 정보를 분석하여 트레이닝 평가를 수행하고, 이에 대한 트레이닝 결과정보를 사용자 단말(100)로 전송한다(ST900).The service server 200 analyzes training feedback information received from the user terminal 100 to perform training evaluation, and transmits training result information for this to the user terminal 100 (ST900).

즉, 상기 실시예에 의하면 다양한 표정의 얼굴 영상 분석을 통해 안면 수치를 측정하여 안면 비대칭 상태를 판단하며, 자신의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있다. That is, according to the embodiment, facial values are measured through facial image analysis of various facial expressions to determine facial asymmetry, and the user's facial asymmetry can be easily corrected through facial expression training of a balance model most similar to the user's facial skeleton. can

100 : 사용자 단말, 200 : 서비스 서버,
210 : 정보 획득부, 220 : 안면상태 분석부,
230 : 트레이닝 처리부, 240 : 데이터 저장소.
100: user terminal, 200: service server,
210: information acquisition unit, 220: facial state analysis unit,
230: training processing unit, 240: data storage.

Claims (6)

서비스 서버에서 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 표정 영상으로 획득하는 제1 단계와,
서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계,
서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계,
서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계,
서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계,
서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및,
서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
A first step of acquiring facial images of each user with different facial expressions, including expressionless expressions, as facial expression images in a service server;
A second step of extracting a plurality of points of each part including the eyes, ears, and mouth from the expressionless image in the service server;
A first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server, and a vertical reference line extending the center point between the first horizontal reference line position where the distance between the first horizontal reference line at both lacrimal gland points is 1:1 and both lacrimal gland points, and , a third step of generating a facial reference line consisting of a second horizontal reference line extending to connect both lip tail points;
In the expressionless image in the service server, the vertical gravity line in the vertical direction mutually perpendicular to the point where the vertical reference line and the first horizontal reference line meet, the first horizontal gravity line in the horizontal direction, and the vertical gravity line based on the lip tail point on the higher side A fourth step of generating a gravity reference line consisting of a second vertical horizontal gravity line;
The service server determines an asymmetric type based on whether or not the face reference line is inclined and the direction of the facial reference line with respect to each gravity reference line. The asymmetric type is a first asymmetric type in which only the second horizontal reference line is in an inclined state, A fifth step of dividing into a second asymmetric type in which one horizontal reference line is inclined in different directions and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction;
A sixth step of determining a standard model of a facial structure most similar to the user's face from standard models pre-registered in the service server and analyzing facial movements using the user's facial expression image;
A seventh step of creating a facial expression training schedule consisting of training information to have a facial expression image of a standard model based on the asymmetric type and facial movement analysis result in the service server and providing it to the user terminal Facial expression, characterized in that it is configured to include Facial asymmetry correction service method using training.
삭제delete 제1항에 있어서,
상기 제1 단계에서 서비스 서버는 무표정, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말로 제시하고, 각 유도 문장에 대한 반응 표정을 사용자의 기본 표정 영상으로 획득하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the first step, the service server presents various induction sentences to the user terminal for inducing expressions of expressionless expression, joy, surprise, fear, sadness, anger, and disgust, and the reaction expression for each induction sentence is a basic facial expression image of the user. Facial asymmetry correction service method using facial expression training, characterized in that obtained by.
제1항에 있어서,
상기 제6 단계에서 서비스 서버는 상기 제1 단계에서 획득한 사용자 표정 영상을 조합하여 사용자 표정 영상을 추가 생성한 후, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하고,
상기 제7 단계에서 서비스 서버는 추가 생성된 표정 영상을 포함한 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보를 생성하며,
상기 추가 생성되는 표정 영상은 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the sixth step, the service server additionally generates a user expression image by combining the user expression images obtained in the first step, and then analyzes the facial movement using the user expression image including the additionally generated expression image,
In the seventh step, the service server generates training information to have a standard model facial expression image including an additionally generated facial expression image,
The additionally generated facial expression image is a satisfaction image, a caution image, a worry image, a discouragement image, a hardening image, and a contempt image by sequentially combining a joy image, a surprise image, a fear image, a sadness image, an anger image, and a disgust image in an expressionless image. A facial asymmetry correction service method using facial expression training, characterized in that sequentially additionally generated.
제1항에 있어서,
상기 제4 단계에서 서비스 서버는 중력 기준선과 양쪽 각 부위 포인트간의 거리와 부위 포인트들간 거리를 근거로 비대칭 속성값을 산출하고,
상기 제7 단계에서 서비스 서버는 상기 비대칭 속성값과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the fourth step, the service server calculates an asymmetric attribute value based on the distance between the gravity reference line and each part point on both sides and the distance between the part points,
In the seventh step, the service server generates training information by selecting a certain number of facial expression images in order of increasing facial movements related to the asymmetry attribute value.
제1항에 있어서,
상기 제7 단계에서 서비스 서버는 사용자 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the seventh step, the service server compares the user's expression image and the expression image of the standard model to calculate the facial movement difference for each facial expression image, and selects a certain number of facial expression images in order of increasing facial movement difference to generate training information Facial asymmetry correction service method using facial expression training, characterized in that.
KR1020200132402A 2020-10-14 2020-10-14 Method for correcting facial asymmetry using expression training KR102497688B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200132402A KR102497688B1 (en) 2020-10-14 2020-10-14 Method for correcting facial asymmetry using expression training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200132402A KR102497688B1 (en) 2020-10-14 2020-10-14 Method for correcting facial asymmetry using expression training

Publications (2)

Publication Number Publication Date
KR20220049149A KR20220049149A (en) 2022-04-21
KR102497688B1 true KR102497688B1 (en) 2023-02-07

Family

ID=81437351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200132402A KR102497688B1 (en) 2020-10-14 2020-10-14 Method for correcting facial asymmetry using expression training

Country Status (1)

Country Link
KR (1) KR102497688B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108620A (en) * 2005-10-13 2007-04-26 Ichiro Hagiwara Expression training machine
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITUA20165257A1 (en) 2016-06-28 2017-12-28 Lettieri Clealia METHODOLOGY FOR THE REALIZATION OF A FUNCTIONAL ORTHODONTIC APPARATUS FOR THE TREATMENT OF FACIAL ASYMMETRY
KR101918119B1 (en) * 2017-03-10 2019-02-08 주식회사 모르페우스 Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face
KR102015469B1 (en) * 2017-06-22 2019-08-28 연세대학교 산학협력단 Management System for Treatment of Neurological Disorder and Method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007108620A (en) * 2005-10-13 2007-04-26 Ichiro Hagiwara Expression training machine
JP2008264367A (en) * 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus

Also Published As

Publication number Publication date
KR20220049149A (en) 2022-04-21

Similar Documents

Publication Publication Date Title
US10802580B2 (en) Technique for controlling virtual image generation system using emotional states of user
CN109298779B (en) Virtual training system and method based on virtual agent interaction
Manjula et al. Smile: A review
US8146005B2 (en) Creating a customized avatar that reflects a user's distinguishable attributes
Iglesias-Linares et al. Common standards in facial esthetics: craniofacial analysis of most attractive black and white subjects according to people magazine during previous 10 years
US11218668B2 (en) Video conferencing method
Angela et al. Esthetic evaluation of dynamic smiles with attention to facial muscle activity
CN112164135A (en) Virtual character image construction device and method
CN112150617A (en) Control device and method of three-dimensional character model
US20230200908A1 (en) Computing platform for improved aesthetic outcomes and patient safety in medical and surgical cosmetic procedures
Niewiadomski et al. Rhythmic body movements of laughter
CN114842522A (en) Artificial intelligence auxiliary evaluation method applied to beauty treatment
KR102497688B1 (en) Method for correcting facial asymmetry using expression training
CN114303142A (en) Image generation device
JP7273752B2 (en) Expression control program, recording medium, expression control device, expression control method
JP2004185437A (en) Program, server, client and method for body information reflecting chatting
CN106249408A (en) Adjustable virtual reality glasses and prevention and the optical system of myopia correction
JP2007175484A (en) Face classification method, face classifier, classification map, face classification program and recording medium having recorded program
KR102497694B1 (en) System and Method for correcting facial asymmetry based expression training using correction mirror
JP6826747B1 (en) Information processing device and information processing method
JP6672414B1 (en) Drawing program, recording medium, drawing control device, drawing control method
US11969543B2 (en) Video conferencing method
US20220370733A1 (en) Video conferencing method
US20240139438A9 (en) Video conferencing method
Choi et al. Pattern Analysis of Voice Onset and Offset in Normal Adults Using High-Speed Digital Imaging: The Role of Arytenoid Cartilage Movements

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant