KR102497688B1 - Method for correcting facial asymmetry using expression training - Google Patents
Method for correcting facial asymmetry using expression training Download PDFInfo
- Publication number
- KR102497688B1 KR102497688B1 KR1020200132402A KR20200132402A KR102497688B1 KR 102497688 B1 KR102497688 B1 KR 102497688B1 KR 1020200132402 A KR1020200132402 A KR 1020200132402A KR 20200132402 A KR20200132402 A KR 20200132402A KR 102497688 B1 KR102497688 B1 KR 102497688B1
- Authority
- KR
- South Korea
- Prior art keywords
- facial
- reference line
- image
- user
- service server
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/107—Measuring physical dimensions, e.g. size of the entire body or parts thereof
- A61B5/1079—Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7465—Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61F—FILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
- A61F5/00—Orthopaedic methods or devices for non-surgical treatment of bones or joints; Nursing devices; Anti-rape devices
- A61F5/01—Orthopaedic devices, e.g. splints, casts or braces
- A61F5/04—Devices for stretching or reducing fractured limbs; Devices for distractions; Splints
- A61F5/05—Devices for stretching or reducing fractured limbs; Devices for distractions; Splints for immobilising
- A61F5/058—Splints
- A61F5/05841—Splints for the limbs
- A61F5/05858—Splints for the limbs for the arms
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B23/00—Exercising apparatus specially adapted for particular parts of the body
- A63B23/025—Exercising apparatus specially adapted for particular parts of the body for the head or the neck
- A63B23/03—Exercising apparatus specially adapted for particular parts of the body for the head or the neck for face muscles
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/67—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
Abstract
본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화하여 사용자의 안면 비대칭 상태를 판단하며, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 기술에 관한 것이다.
본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법은, 서비스 서버에서 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 표정 영상으로 획득하는 제1 단계와, 서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계, 서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계, 서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계, 서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계, 서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및, 서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 한다.The present invention determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and can easily correct the user's facial asymmetry through facial expression training of a balance model most similar to the user's facial skeleton. It's about technology that makes it possible.
A facial asymmetry correction service method using facial expression training according to the present invention includes a first step of acquiring facial images of each user with different facial expressions including expressionless expressions as facial expression images in a service server; The second step of extracting a plurality of points of each part including the mouth, the first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server and the first horizontal reference line from both tear gland points is 1:1 A third step of generating a facial reference line composed of a vertical reference line extending from the reference line position and the center point between both lacrimal gland points and a second horizontal reference line extending connecting both lip tail points, the vertical reference line and Gravity consisting of a vertical vertical gravity line mutually perpendicular to the point where the first horizontal reference lines meet, a horizontal first horizontal gravity line, and a second horizontal gravity line perpendicular to the vertical gravity line based on the lip tail point on the higher side. A fourth step of generating a reference line, the service server determines an asymmetric type based on whether or not the face reference line is inclined and the direction of the facial reference line with respect to each gravity reference line, and the asymmetric type is the first asymmetric type in which only the second horizontal reference line is in an inclined state. and a second asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in different directions, and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction. The fifth step, the sixth step of determining the standard model of the facial structure most similar to the user's face from the standard models pre-registered in the service server, and analyzing the facial movement using the user's expression image, and the service server, the asymmetric type and It is characterized in that it comprises a seventh step of generating a facial expression training schedule consisting of training information to have a standard model facial expression image based on the facial motion analysis result and providing it to the user terminal.
Description
본 발명은 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화하여 사용자의 안면 비대칭 상태를 판단하며, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 기술에 관한 것이다.The present invention determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and can easily correct the user's facial asymmetry through facial expression training of a balance model most similar to the user's facial skeleton. It's about technology that makes it possible.
안면의 움직임은 안면을 구성하는 수 많은 근육이 22개의 뼈조각과 서로 연결되어 상호작용하게 되는데 안면 비대칭은 이러한 근골격계의 복합적인 원인에 의한 결과로서 나타나는 현상이다. The movement of the face interacts with the numerous muscles that make up the face by being connected to 22 bone pieces. Facial asymmetry is a phenomenon that appears as a result of these complex causes of the musculoskeletal system.
안면 비대칭의 주원인은 개인의 생활 습관(저작, 수면자세, 손으로 턱괴기, 상하반신의 자세 불균형)과 매우 밀접하게 연관되어 있으며 이러한 습관은 오랜 시간동안 안면의 근골격계에 영향을 주게 되어 안면 근육의 수축이완 및 긴장, 사용 유무 그리고 그 근육에 의한 안면과 두상의 골격의 변화 등으로 나타난다. The main cause of facial asymmetry is very closely related to an individual's lifestyle (mastication, sleeping posture, chin resting with hands, postural imbalance of the upper and lower body), and these habits affect the musculoskeletal system of the face for a long time, resulting in the loss of facial muscles. It appears as contraction relaxation and tension, whether or not it is used, and changes in the skeletal structure of the face and head due to the muscles.
또한 안면 비대칭의 결과는 턱관절의 균형과 움직임에 매우 깊은 영향을 줄 수 있다.Also, the consequences of facial asymmetry can have a very profound effect on the balance and movement of the temporomandibular joint.
턱관절은 경락체계와 뇌의 활동을 조절하는 부위로서 턱 관절이 뇌 활동 치료의 근본이 되기도 하는데 그 이유는 턱관절 주변으로는 수많은 신경과 혈관들이 지나가기 때문에 안면 비대칭이 발생할 경우 신경체계의 밸런스가 깨지면서 많은 문제점들을 야기할 수 있기 때문이다.The temporomandibular joint is a part that regulates the meridian system and brain activity, and the temporomandibular joint is also the basis of brain activity treatment. The reason is that numerous nerves and blood vessels pass around the temporomandibular joint, so if facial asymmetry occurs, the balance of the nervous system This is because breaking can cause many problems.
이를 방치할 경우 만성두통, 부종, 혈색변화, 어깨걸림, 어지러움증, 구토, 저작의 어려움, 호르몬 분비 이상과 같은 신경과 근육계통의 질환을 발생시키기 때문에 조기에 안면 불균형 현상을 인식해서 원인을 해결하고 그 경과 진행을 방지할 필요가 있다.If left unattended, it can cause chronic headaches, edema, color changes, shoulder hangs, dizziness, vomiting, difficulty in chewing, and disorders of the nervous and muscular system, such as abnormal secretion of hormones. It is necessary to prevent its progress.
또한, 안면 비대칭은 대인관계에 좋지 않은 인상을 심어줄 수 있을 뿐 만 아니라 외모적 스트레스와 콤플렉스가 되기 때문에 사회적 관계에 있어서 자기효능감에도 좋지 않은 영향을 줄 수 있다.In addition, facial asymmetry can not only give a bad impression on interpersonal relationships, but also negatively affect self-efficacy in social relationships because it causes appearance stress and complexes.
이는 자신감을 저하시키는 요인으로서, 자신의 의사를 정확히 상대방에게 전달하거나 상대방을 설득하는데 있어서 심리적 소극성으로 이어져 주도적인 감정표현과 자립심의 영역에도 영향을 미치고 자신의 사회적 영향력을 제한하거나 축소시켜 환경에 종속되는 방향으로 가기 쉬워진다.This is a factor that lowers self-confidence, leading to psychological passivity in accurately conveying one's intentions to the other person or persuading the other person, affecting the area of leading emotional expression and self-reliance, and limiting or reducing one's social influence to subordinate to the environment. The easier it is to go in that direction.
이러한 결과로 인해 안면비대칭은 질환적인 문제에만 국한되지 않고 개인의 사회성 및 자기효능감에 관련된 삶의 심리적 이슈와도 매우 밀접하게 관련되어 있어 이를 해결해야 할 필요가 있다. As a result of these results, facial asymmetry is not limited to disease problems, but it is very closely related to psychological issues in life related to individual sociality and self-efficacy, so it is necessary to solve this problem.
이를 위해 안면 비대칭 관련 시술이나 수술들의 방법들이 이용되고 있으나, 현재 이용되는 안면 비대칭 관련 시술이나 수술적인 방법들은 병원에서 전문적인 장비들을 이용하는 것으로 많은 비용이 소요되는 단점이 있다. To this end, facial asymmetry-related procedures or surgical methods have been used, but currently used facial asymmetry-related procedures or surgical methods use specialized equipment in hospitals, and thus have the disadvantage of requiring a lot of cost.
이에, 본 발명은 상기한 사정을 감안하여 창출된 것으로, 다양한 표정의 사용자 얼굴 영상 분석을 통해 안면정보를 수치화여 사용자의 안면 비대칭 상태를 판단하고, 사용자의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있도록 해 주는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 제공함에 그 기술적 목적이 있다.Therefore, the present invention was created in view of the above circumstances, and determines the user's facial asymmetry by digitizing facial information through image analysis of the user's face with various facial expressions, and trains the facial expression of the balance model most similar to the user's facial skeleton. Its technical purpose is to provide a facial asymmetry correction service method using facial expression training that enables users to easily correct facial asymmetry through
상기 목적을 달성하기 위한 본 발명의 일측면에 따르면, 서비스 서버에서 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 표정 영상으로 획득하는 제1 단계와, 서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계, 서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계, 서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계, 서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계, 서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및, 서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.According to one aspect of the present invention for achieving the above object, a first step of obtaining facial images of each user with different facial expressions including expressionless expressions in a service server as facial expression images, A second step of extracting a plurality of points of each part including a first horizontal reference line in which the distance between the first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server and the first horizontal reference line at both lacrimal gland points is 1:1 A third step of generating a facial reference line consisting of a vertical reference line extending from the center point between the position and both lacrimal gland points and a second horizontal reference line extending connecting both lip tail points; 1 Gravity reference line consisting of a vertical vertical gravity line mutually perpendicular to the point where the horizontal reference lines meet, a first horizontal gravity line in the horizontal direction, and a second horizontal gravity line perpendicular to the vertical gravity line based on the upper lip tail point In the fourth step of generating, the service server determines an asymmetric type based on whether or not the facial reference line is inclined and the direction of the facial reference line with respect to each gravity reference line, the asymmetric type is the first asymmetric type in which only the second horizontal reference line is in an inclined state and , a second asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in different directions, and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction. 5th step, a 6th step of determining a standard model of a facial structure most similar to the user's face from standard models pre-registered in the service server and analyzing facial movements using the user's facial expression image, and asymmetric type and face in the service server A facial asymmetry correction service using facial expression training, characterized in that it comprises a seventh step of generating a facial expression training schedule consisting of training information to have a facial expression image of a standard model based on the motion analysis result and providing it to the user terminal. A method is provided.
또한, 상기 제1 단계에서 서비스 서버는 무표정, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말로 제시하고, 각 유도 문장에 대한 반응 표정을 사용자의 기본 표정 영상으로 획득하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the first step, the service server presents various induction sentences for inducing facial expressions of expressionless expression, joy, surprise, fear, sadness, anger, and disgust to the user terminal, and the reaction expression for each induction sentence is the user's basic Provided is a facial asymmetry correction service method using facial expression training, characterized in that it is acquired as a facial expression image.
삭제delete
또한, 상기 제6 단계에서 서비스 서버는 상기 제1 단계에서 획득한 사용자 표정 영상을 조합하여 사용자 표정 영상을 추가 생성한 후, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하고, 상기 제7 단계에서 서비스 서버는 추가 생성된 표정 영상을 포함한 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보를 생성하며, 상기 추가 생성되는 표정 영상은 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the sixth step, the service server combines the user facial expression images acquired in the first step to additionally generate a user facial expression image, and then analyzes the facial movement using the user facial expression image including the additionally generated facial expression image. , In the seventh step, the service server generates training information to have a standard model facial expression image including an additionally generated facial expression image, and the additionally generated facial expression image includes a joy image, a surprise image, a fear image, A facial asymmetry correction service method using facial expression training, characterized by sequentially generating a satisfaction image, a boundary image, a worry image, a discouragement image, a hardened image, and a contempt image by sequentially combining sadness images, anger images, and disgust images. Provided.
또한, 상기 제4 단게에서 서비스 서버는 중력 기준선과 양쪽 각 부위 포인트간의 거리와 부위 포인트들간 거리를 근거로 비대칭 속성값을 산출하고, 상기 제7 단계에서 서비스 서버는 비대칭 속성값과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the fourth step, the service server calculates an asymmetric attribute value based on the distance between the gravity reference line and each part point on both sides and the distance between the part points, and in the seventh step, the service server calculates the facial movement related to the asymmetric attribute value. A facial asymmetry correction service method using facial expression training is provided, wherein training information is generated by selecting a certain number of facial expression images in a large order.
또한, 상기 제7 단계에서 서비스 서버는 사용자 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법이 제공된다.In addition, in the seventh step, the service server compares the user's facial expression image with the facial expression image of the standard model, calculates the facial movement difference for each facial expression image, selects a certain number of facial expression images in the order of the largest facial movement difference, and obtains training information. There is provided a facial asymmetry correction service method using facial expression training, characterized in that for generating.
본 발명에 의하면, 다양한 표정의 얼굴 영상 분석을 통해 안면 수치를 측정하고, 이를 통해 안면 비대칭 상태를 판단하며, 자신의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있다. According to the present invention, facial values are measured through facial image analysis of various facial expressions, facial asymmetry is determined through this, and facial asymmetry of the user is easily corrected through facial expression training of a balance model most similar to the user's facial skeleton. can do.
또한, 사용자가 자신 얼굴의 비대칭성을 인식하고 원인을 파악하여 나쁜 습관을 방지하고 잘못된 근골격 상태를 비시술 및 비수술적인 방법으로 개선할 수 있다. In addition, the user can recognize the asymmetry of his or her face and identify the cause to prevent bad habits and improve the wrong musculoskeletal condition by non-surgical and non-surgical methods.
또한, 본 발명에 의하면 자신과 가장 닮은 꼴의 얼굴 특징을 갖는 매력적인 얼굴 표정 연습을 통해 대인관계에서 보다 좋은 인상을 줄 수 있다.In addition, according to the present invention, it is possible to give a better impression in interpersonal relationships through the practice of attractive facial expressions having facial features most similar to one's own.
도1은 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템의 개략적인 구성을 도시한 도면.
도2는 본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명하기 위한 흐름도.
도3은 도2에 도시된 안면 수치 정보를 추출하는 과정(ST200)을 설명하기 위한 흐름도.
도4와 도5는 도3에서 추출된 안면 수치 정보를 무표정 영상에 예시한 도면.
도6은 도2에 도시된 비대칭 타입 결정 방법(ST300)을 설명하기 위한 도면. 1 is a diagram showing a schematic configuration of a facial asymmetry correction service system using facial expression training to which the present invention is applied.
Figure 2 is a flow chart for explaining a facial asymmetry correction service method using facial expression training according to the present invention.
3 is a flowchart for explaining a process (ST200) of extracting facial numerical information shown in FIG. 2;
4 and 5 illustrate the facial numerical information extracted in FIG. 3 in an expressionless image.
6 is a diagram for explaining an asymmetric type determination method (ST300) shown in FIG. 2;
본 발명에 기재된 실시예 및 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 표현하는 것은 아니므로, 본 발명의 권리범위는 본문에 설명된 실시예 및 도면에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.The embodiments described in the present invention and the configurations shown in the drawings are only preferred embodiments of the present invention, and do not represent all the technical ideas of the present invention, so the scope of the present invention is limited to the embodiments and drawings described in the text. should not be construed as being limited by That is, since the embodiment can be changed in various ways and can have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, the scope of the present invention should not be construed as being limited thereto.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless defined otherwise. Terms defined in commonly used dictionaries should be interpreted as being consistent with meanings in the context of related art, and cannot be interpreted as having ideal or excessively formal meanings that are not clearly defined in the present invention.
도1은 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템의 개략적인 구성을 도시한 도면이다. 1 is a diagram showing a schematic configuration of a facial asymmetry correction service system using facial expression training to which the present invention is applied.
도1을 참조하면, 본 발명이 적용되는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 시스템은 사용자 단말(100)과, 서비스 서버(200)를 포함하여 구성되고, 서비스 서버(200)는 정보 획득부(210)와, 안면상태 분석부(220), 트레이닝 처리부(230) 및, 데이터 저장소(240)를 포함한다.Referring to FIG. 1, a facial asymmetry correction service system using facial expression training to which the present invention is applied includes a
사용자 단말(100)은 카메라(1)를 구비한 개인통신단말로서, 스마트 폰이나 태블릿 PC 등의 무선 단말이거나 또는 노트북이나 데스크 탑 등의 유선 단말이 될 수 있다. The
사용자 단말(100)은 무표정을 포함한 서로 다른 표정의 각 사용자 얼굴 영상을 서비스 서버(200)로 전송한다. 이때, 사용자 단말(100)은 사용자 생활습관 관련 설문에 대응되는 설문응답정보와, 안면 교정 서비스를 위한 서비스 선택 정보 및, 트레이닝에 따른 환경정보를 포함한 안면 교정 관련 각종 정보를 서비스 서버(200)전송한다. The
정보 획득부(210)는 사용자 단말(100)로부터 전송되는 얼굴 영상을 수집한다. 이때, 정보 획득부(210)는 목적하는 다양한 표정의 얼굴 영상 즉, 표정 영상을 획득하기 위한 표정 유도정보를 사용자 단말(100)로 제공하고, 이에 대한 반응 표정을 촬영하여 서로 다른 다수의 표정 영상을 획득할 수 있다.The
안면상태 분석부(220)는 정보 획득부(210)에서 수집한 표정 영상을 분석하여 안면정보를 수치화하고, 안면 수치정보를 근거로 비대칭 속성값을 산출한다. 이때, 안면상태 분석부(220)는 Open CV(Open Source Computer Vision) 알고리즘을 이용하여 얼굴 영상에서 안면의 전체적인 윤곽과 각 부위의 위치, 크기, 각도, 간격 등을 측정하여 수치화한다.The
또한, 안면상태 분석부(220)는 생활습관 관련 설문응답정보를 안면 비대칭상태 분석에 추가로 적용할 수 있다.In addition, the
트레이닝 처리부(230)는 비대칭 속성값을 근거로 해당 사용자 안면의 비대칭 타입을 결정함과 더불어, 모델 빅데이터에서 해당 안면 골격과 가장 유사한 표준 모델을 결정하고, 얼굴의 각 부위가 학습된 CNN(합성곱 신경망, Convolutional neural network) 모델과 RNN(순환 신경망, Recurrent neural network) 모델에 사용자 표정영상을 적용하여 해당 사용자의 안면 움직임을 분석한다. 그리고, 트레이닝 처리부(230)는 사용자의 비대칭 속성값과 표준 모델의 균형 안면 수치정보를 비교하여 그 차이를 분석한다.The
또한, 트레이닝 처리부(230)는 안면 수치정보를 근거로 비대칭 타입을 결정하고, 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성한다.In addition, the
또한, 트레이닝 처리부(230)는 트레이닝 정보를 사용자 단말(100)로 전송하고, 이에 대응하여 사용자 단말(100)로부터 입력되는 트레이닝 피드백정보를 수집한다. 또한, 트레이닝 처리부(230)는 트레이닝 피드백정보를 안면상태 분석부(220)로 제공하여 분석요청하고, 그 분석결과에 기반하여 트레이닝 평가정보를 생성하여 사용자 단말(100)로 제공한다.In addition, the
데이터 저장소(240)는 안면 교정서비스를 제공하기 위한 각종 정보를 저장하는 것으로, Open CV 알고리즘과, 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델, 안면 타입별 균형의 표준 모델, 설문정보, 비대칭 타입별 기준 정보를 포함한 정보들이 저장된다. 여기서, CNN 모델은 안면 부위의 움직임을 측정하기 위한 AI 알고리즘이고, RNN 모델은 CNN 모델과 연동되어 움직이는 안면 근육의 상호작용과 수직 이완 정보 및 방향을 측정하기 위한 AI 알고리즘이다. 또한, 표준 모델정보는 각 표준 모델별 다수의 서로 다른 표정 영상이 함께 저장된다. The
이어, 상기한 구성으로 된 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명한다.Next, a facial asymmetry correction service method using facial expression training having the above configuration will be described.
도2는 본 발명에 따른 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a facial asymmetry correction service method using facial expression training according to the present invention.
먼저, 사용자는 사용자 단말(100)을 통해 서비스 서버(200)에 접속하여 본 발명에 따른 안면 비대칭 교정 서비스를 위한 안면교정 프로그램을 제공받아 설치한다. 이하에서 사용자 단말(100)은 안면교정 프로그램의 실행에 따라 하기의 동작을 수행하며, 카메라가 구비된 스마트 폰인 경우에 대해 설명한다. First, a user accesses the
사용자 단말(100)은 안면교정 프로그램이 실행된 상태에서, 서비스 서버(200)에 접속하여 카메라를 통해 자신의 얼굴 영상을 촬영하고, 이를 서비스 서버(200)에 전송한다(ST100). While the face correction program is running, the
상기 ST100 단계에서 서비스 서버(200)는 기 설정된 7가지의 서로 다른 표정을 갖는 얼굴 영상을 획득하기 위해 해당 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말(100)로 제공하고, 이에 대응되는 서로 다른 표정의 사용자 얼굴 영상을 사용자 단말(100)로부터 획득한다. In the step ST100, the
즉, 본 발명에서 서비스 서버(200)는 유도 문장을 이용하여 무표정, 웃음, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오 의 7가지 기본 표정 영상을 획득한다. 하기 표1은 7가지 기본 표정 영상을 획득하기 위해 서비스 서버(200)에서 사용자 단말(100)로 제공되는 정보를 예시한 것이다.That is, in the present invention, the
expression
Sentence Features and Example Sentences
expressionless
Put your hands on your lap or on a table and make a look of indifference when you are alone with no one around.
laugh
’푸 하하하하’, ‘웃으면 복이옵니다’
Try to copy the tone and tempo of the voice you hear now.
'Fu hahahaha', 'Laughing brings blessings'
pleasure
머릿속으로 떠올리며 표정을 지어보세요.
‘친구야 반갑다 하하하 ’, ‘아빠(엄마) 사랑해요’ ‘우리 사랑하는 아들(딸)’
This is the expression of a loved one after a long time, or a good friend or family member.
Think of it in your head and make a facial expression.
'Nice to meet you, friend hahaha', 'I love you daddy (mom)''My beloved son (daughter)'
surprised
’뭐라고? 그게 사실이야?’, ‘깜작이야! 놀랬잖아?’
Try to copy the tone and tempo of the voice you hear now.
'what? Is that true?', 'I forgot! Aren't you surprised?'
fear
‘물을 마시던 가젤에게 갑자기 악어가 들이닥쳤습니다. 물보라가 일고 가젤은 온힘을 다해 빠져나가려고 했지만 악어는 가젤을 강한 이빨로 물고 견딜 수 없는 힘으로 이리 저리 뒤흔들자 가젤은 힘없이 숨만 붙은 채 피와 흙탕물이 뒤섞인 물속으로 순식간에 끌려가 사라져버렸습니다’
이 이야기가 자신에게 일어났다고 상상하고 머릿속에 떠올려 보세요.
Listen to the following story.
'A crocodile suddenly attacked a gazelle that was drinking water. The spray rose and the gazelle tried with all its might to escape, but the crocodile grabbed the gazelle with its strong teeth and tossed it around with unbearable force. '
Imagine this story happening to you and keep it in your head.
sadness
사랑하는 사람과 헤어졌던 날, 가슴이 아팠던 적이 있나요?
‘ 엄마, 나 여기에 가슴이 그냥 뻥 뚤린거 같아. 아무것도 없어, 아무리 채워도 넣을수가 없어, 아빠가 너무 보고 싶어. 지금 보고 싶어 엉엉’
What was the saddest moment for you?
Have you ever been heartbroken the day you broke up with someone you loved?
'Mom, I think my heart is just blown open here. There is nothing, no matter how much I fill it, I can't put it in. I miss my dad so much. I miss you right now noooo
anger
‘데모하거나 항의하는 사람 또는 대치 중인’
Imagine a situation where you are angry and try to express your feelings when you see the picture below.
'A person demonstrating or protesting or in a standoff'
hate
‘ 아이 더러워, 누가 똥밟았어? 어휴 냄새야. 우웩! 토나오려고 해’
What would your face look like if you saw something unpleasant or terrifying?
'You're dirty, who stepped on your ass? oh what a smell Wow! 'I'm about to throw up'
이때, 사용자 단말(100)은 표시창을 통해 촬영 포인트를 출력하여 사용자로하여금 응시하도록 하고, 사용자 단말(100)은 사용자의 조작에 따라 카메라를 이용하여 자신의 정면 얼굴과 측면 얼굴을 촬영한다. 여기서, 사용자는 정면 얼굴 촬영시에는 양쪽 귀의 크기가 일치하도록 하고, 측면 얼굴 촬영시에는 입술꼬리가 얼굴 윤곽선에 일치시키도록 한 상태에서 얼굴 영상 촬영을 수행한다. At this time, the
이어 서비스 서버(200)는 무표정 얼굴 영상 즉, 무표정 영상을 근거로 사용자의 안면 수치 정보를 산출한다(ST200). Subsequently, the
이때, 서비스 서버(200)는 무표정 영상을 Open CV 알고리즘에 적용하여 안면의 전체적인 윤곽과 각 부위의 위치, 크기, 각도, 간격 등을 측정하여 안면 비대칭 교정에 필요한 해당 사용자의 안면 수치 정보를 추출한다. At this time, the
안면 수치 정보를 추출하는 과정은 도3에 도시된 바와 같이, 먼저 서비스 서버(200)는 무표정 영상에서 기 설정된 부위 포인트를 추출한다(ST210). 도4에 도시된 바와 같이, 부위 포인트는 각 부위의 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4), 입술 꼬리(P5, P6), 귀밑 끝(P7,P8), 상측 입술 홈(P9)을 포함한다.In the process of extracting facial numerical information, as shown in FIG. 3 , the
또한, 서비스 서버(200)는 무표정 영상에서 각 부위 포인트를 이용하여 안면 기준선을 설정한다(ST220). 도4에 도시된 바와 같이, 안면 기준선은 안면의 세로 방향 중심상에 설정되는 세로 기준선(VL)과, 안면의 상측에 가로 방향으로 형성되는 제1 가로 기준선(HL1) 및, 안면의 하측에 가로 방향으로 형성되는 제2 가로 기준선(HL2)으로 이루어진다. In addition, the
안면 기준선 생성 과정은 먼저, 양쪽 눈썹 상단을 연결하는 연장 라인을 제1 가로 기준선(HL1)으로 생성한다.In the process of creating a facial reference line, first, an extension line connecting upper ends of both eyebrows is created as a first horizontal reference line HL1.
먼저 양쪽눈의 각 눈물샘 포인트(P1,P2)에서 제1 가로 기준선(HL1)까지의 거리가 1:1 인 위치의 제1 세로 포인트(VP1)를 설정하고, 양쪽눈의 눈물샘 포인트(P1,P2)간 연결선의 중앙점을 제2 세로 포인트(VP2)로 설정하여, 제1 세로 포인트(VP1)와 제2 세로 포인트(VP2)를 통과하면서 제1 가로 기준선(HL1)과 직각으로 만나는 연장 라인을 세로 기준선(VL)으로 생성한다.First, a first vertical point (VP1) is set at a position where the distance from each lacrimal point (P1, P2) of both eyes to the first horizontal reference line (HL1) is 1:1, and the lacrimal gland points (P1, P2) of both eyes are set. ) by setting the center point of the connection line between them as the second vertical point VP2, and passing through the first vertical point VP1 and the second vertical point VP2, an extension line meeting the first horizontal reference line HL1 at right angles It is created as a vertical reference line (VL).
또한, 양쪽 입술꼬리 포인트(P5,P6)를 연결하는 연장 라인을 제2 가로 기준선(HL2)으로 생성한다.In addition, an extension line connecting both lip tail points P5 and P6 is created as a second horizontal reference line HL2.
상기한 상태에서, 서비스 서버(200)는 도4에 도시된 바와 같이 각 포인트(P1 ~ P8) 및, 안면 기준선을 연결하여 안면 비대칭 상태를 판단하기 위한 측정 라인을 생성한다(ST230). 측정 라인은 양쪽 귀끝 포인트(P7,P8)를 제1 가로 기준선(HL1)에 수직하게 연결하는 라인과, 양쪽 눈물샘(P1,P2)과, 눈꼬리 흰자끝(P3,P4) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트를 연결하는 라인, 입술 꼬리(P5, P6) 포인트와 입술 홈(P9)을 연결하는 라인을 포함한다.In the above state, the
이어, 서비스 서버(200)는 도5에 도시된 바와 같이 세로 기준선(VL)과 제1 가로 기준선(HL1)이 만나는 포인트에 수직하는 세로 중력선(GL1)과 제1 가로 중력선(GL2)을 생성하고, 입술꼬리 중 보다 위로 올라간 입술꼬리 포인트를 기준으로 세로 중력선(GL1)과 수직하는 제2 가로 중력선(GL3)으로 이루어지는 중력 기준선을 생성한다(ST240).Then, as shown in FIG. 5, the
그리고, 서비스 서버(200)는 중력 기준선을 기준으로 양쪽 각 부위 포인트간 거리, 서로 다른 부위 포인트간 거리, 측정 라인 간의 거리, 각도, 포인트들을 연결하는 측정 라인에 의해 형성되는 면의 면적 등의 수치값을 근거로 비대칭 속성값을 산출한다(ST250). 이때, 서비스 서버(200)는 안면의 모든 측정라인을 가로 중력선(GL1,GL2)에 평행되도록 회전시켜 비교 라인을 설정하고, 비교 라인과 사용자의 안면 측정라인간의 차이를 근거로 비대칭 속성값을 산출한다. 본 발명에서 비대칭 속성은 비대칭 여부를 판단하기 위한 항목으로, 양쪽 귀끝 높이, 양 눈의 크기, 양 눈의 수평 높이, 입술끝점의 수평높이, 코의 좌우 균형, 입의 좌우 균형, 좌우 눈썹과 입꼬리의 길이, 얼굴의 좌우 면적 등을 포함한다.In addition, the
이어, 서비스 서버(200)는 상기 ST200 단계에서 산출된 안면 수치 정보를 근거로 비대칭 타입을 결정한다(ST300). 이때, 서비스 서버(200)는 도4에 도시된 사용자 안면 기준선과 도5에 도시된 중력 기준선을 비교하여 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 결정하고, 안면 기준선의 경사 상태에 따라 비대칭 타입을 결정한다.Subsequently, the
도6에는 3가지의 비대칭 타입이 예시되어 있다.In Fig. 6, three types of asymmetry are illustrated.
도6을 참조하면, 본 발명에서는 수평 기준선(HL1,HL2)의 경사 여부 및 경사 방향에 따라 비대칭 타입을 3가지로 구분한다. 제1 비대칭 타입(A)은 제2 가로 기준선만 경사 상태인 경우이고, 제2 비대칭 타입은 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 경우이며, 제3 비대칭 타입은 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 경우로 구분된다. Referring to FIG. 6 , in the present invention, three types of asymmetric types are classified according to whether the horizontal reference lines HL1 and HL2 are inclined and the direction of the inclination. The first asymmetric type (A) is a case where only the second horizontal reference line is inclined, the second asymmetric type is a case where the second horizontal reference line and the first horizontal reference line are inclined in different directions, and the third asymmetric type is a case where the second horizontal reference line and the first horizontal reference line are inclined in different directions. It is divided into a case where the horizontal reference line and the first horizontal reference line are inclined in the same direction.
제1 비대칭 타입(A)은 가장 초기단계의 안면 비대칭 상태로서, 제2 가로 기준선(HL2)만 경사 상태로 설정된다. 이는 아래턱이 좌측아래턱(하악)이 좌측 혹은 우측으로 틀어진 상태이며, 아래턱 이외의 부위에서는 아직 비대칭이 뚜렷하게 나타나지 않은 상태로 분석된다. The first asymmetry type A is the facial asymmetry state at the earliest stage, and only the second horizontal reference line HL2 is set to an inclined state. This is a state in which the lower jaw is distorted to the left or the right, and the asymmetry is not yet evident in areas other than the lower jaw.
제2 비대칭 타입(B)은 제1 비대칭 타입(A) 상태에서 하악의 틀어짐이 더 심해지면서 나타나는 상태로, 가장 흔한 안면 비대칭 유형이다. 제2 비대칭 타입(B)은 제1 및 제2 가로 기준선(HL1,HL2)이 모두 경사 상태로서, 서로 다른 방향으로 경사 형성된 상태로 설정된다. 이는 아래턱이 틀어진 방향으로 측두골이 밀려나면서 외회전 위턱(상악)이 아래턱과 같은 방향으로 틀어지고, 아래턱이 틀어진 방향으로 눈과 광대가 주저앉으면서 얼굴이 찌그러져 보이는 유형으로 분석되며, 아래턱이 틀어진 방향으로 코가 휘는 경우가 많다. 이 경우, 노화가 진행되면 찌그진 방향으로 눈가주름, 팔자주름 등도 더 깊이 유발되는 특징을 갖는다.The second asymmetric type (B) is a condition in which the distortion of the lower jaw becomes more severe in the first asymmetry type (A) state, and is the most common facial asymmetry type. In the second asymmetric type (B), both the first and second horizontal reference lines HL1 and HL2 are inclined, and are set to be inclined in different directions. This is analyzed as a type in which the externally rotated upper jaw (maxilla) is twisted in the same direction as the lower jaw as the temporal bone is pushed in the direction the lower jaw is distorted, and the eyes and cheekbones sink in the direction the lower jaw is distorted, causing the face to look distorted. The nose is often crooked. In this case, as aging progresses, wrinkles around the eyes and nasolabial folds are induced more deeply in a distorted direction.
제3 비대칭 타입(C)은 가장 심한 안면 비대칭 유형으로, 제1 및 제2 가로 기준선(HL1,HL2)이 모두 경사 상태로서, 동일 방향으로 경사 형성된 상태로 설정된다. 이는 제2 비대칭 타입(B)에서 비대칭이 더욱 진행되어 측두골과 접형골 등 두개골의 변위 진행한 상태로서, 아래턱과 반대방향으로 위턱이 틀어지고 코가 휜 상태로, 아래턱이 틀어진 방향으로 눈매와 광대선이 위로 올라간 상태이며, 안면뼈와 두개골의 변위가 가장 많이 진행된 유형으로 분석된다. The third asymmetry type (C) is the most severe type of facial asymmetry, and the first and second horizontal reference lines HL1 and HL2 are both inclined and set to be inclined in the same direction. This is a state in which the asymmetry has progressed further in the second asymmetric type (B) and the displacement of the skull, such as the temporal bone and the sphenoid bone, has progressed. This is the upward state, and the displacement of the facial bones and skull is analyzed as the most advanced type.
이어, 서비스 서버(200)는 상기 ST200 단계에서 산출된 안면 수치 정보를 근거로 데이터 저장소(240)에 기 등록된 안면 대칭형의 표준 모델 중 해당 사용자의 안면 수치, 바람직하게는 골격 수치가 가장 유사한 표준 모델을 결정한다(ST400). 이때, 서비스 서버(200)는 중력 중심선을 기준으로 각 부위 포인트 및 측정 라인이 균형을 이루도록 변환하고, 변환된 균형 수치를 근거로 최적의 표준 모델을 결정한다. Subsequently, the
그리고, 서비스 서버(200)는 사용자의 다양한 표정 영상을 근거로 사용자의 안면 움직임을 분석한다(ST500).Then, the
이때, 서비스 서버(200)는 서로 다른 7가지 표정 영상을 빅 데이터화된 얼굴 영상 데이터 셋으로부터 학습된 GANs(Generative Adversarial Networks, 심층 합성곱 생성적 적대 신경망)을 이용하여 6가지 표정의 얼굴 영상을 추가로 생성한다.At this time, the
하기 표2와 같은 방식의 표정 영상 조합을 통해 6가지의 새로운 표정 영상을 생성한다. Six new facial expression images are generated through the combination of facial expression images in the manner shown in Table 2 below.
default expression
synthetic expression
Facial expression generated by GAN
2. Joy
1. Expressionless
8. Satisfaction
3. Surprise
9. Boundary
4. Fear
10. Worry
5. Sorrow
11. Discouragement
6. Anger
12. Hardened
7. Dislike
13. Contempt
표2를 참조하면, 기본 표정과 합성 표정은 상기 ST100 단계에서 사용자 단말(100)로부터 획득한 얼굴 영상이고, GAN을 통해 생성된 표정은 추가로 생성된 얼굴 영상으로, 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성한다. 예컨대, 표2에서 "만족" 표정 영상은 기쁨 표정 영상과 무표정 영상을 조합하여 생성되고, "경계" 표정 영상은 "놀람" 표정 영상과 무표정 영상을 조합하는 형태로 생성된다. Referring to Table 2, the basic facial expression and synthesized facial expression are face images obtained from the
즉, 서비스 서버(200)는 총 13가지 표정 영상을 해당 얼굴의 각 부위가 학습된 CNN 모델과 RNN 모델에 적용하여 해당 사용자의 안면 움직임을 분석한다. 이때, 서비스 서버(200)는 대화시 사용자의 얼굴 근육의 움직임을 측정하기 위해 기 설정된 짧은 문장을 제시하고 해당 문장을 읽는 얼굴 영상을 사용자 단말(100)로부터 획득함과 더불어, 기 설정된 대화내용을 출력하여 해당 대화를 듣는 상태의 얼굴 영상을 사용자 단말(100)로부터 획득하여 이를 안면 움직임 분석에 추가적으로 반영할 수 있다. That is, the
이어, 서비스 서버(200)는 상기 ST300 단계에서 결정된 비대칭 타입과 ST500 단계에서 결정된 안면 움직임 분석결과를 근거로 날짜별 순차적인 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하고, 이를 사용자 단말(100)로 전송한다(ST600, ST700).Subsequently, the
이때, 서비스 서버(200)는 사용자의 기준 표정과 추가 생성된 표정을 포함한 13가지의 표정에 대한 표준 모델의 표정 영상 즉, 표준 영상을 목표로 하는 표정 트레이닝 스케쥴을 생성한다. 즉, 서비스 서버(200)는 사용자의 표정 영상과 표준 영상을 비교하여 해당 표정이 나타나도록 하기 위한 표정 트레이닝 스케쥴을 생성한다.At this time, the
예컨대, 서비스 서버(200)는 비대칭 속성과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 영상의 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. For example, the
또한, 서비스 서버(200)는 해당 사용자의 각 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 해당 표정이 표준 영상의 표정이 되도록 하는 트레이닝 정보를 생성할 수 있다. In addition, the
이러한 표정 트레이닝 스케쥴은 각 표정에 대한 근육풀기와, 얼굴 움직임, 포인트 지압, 마시지로 이루어지는 기본 표정 트레이닝과, 얼굴 부위의 움직임을 개별적으로 연습한 후 2개 이상의 얼굴 부위를 동시에 움직이는 연습을 수행하며, 표정을 단계적으로 짓도록 한 다음, 표정을 한 번에 짓도록 하는 동작으로 이루어지는 단계 트레이닝 및, 무표정 상태의 개선점을 도출하여 부드럽고 호감가는 표정을 이미지로 생성하여 제시하고, 개선이 필요한 부위에 대한 트레이닝 요소를 도출하여 훈련을 수행하는 호감 트레이닝을 포함할 수 있다. 여기서 호감 트레이닝을 위한 표준 모델은 사용자의 안면 골격과 유사한 다수의 모델 중에서 사용자 단말(100)을 통해 사용자가 직접 선택할 수 있다.This facial expression training schedule includes basic facial expression training consisting of muscle relaxation for each expression, facial movement, point acupressure, and massage, and practice of moving two or more facial parts simultaneously after practicing the movements of the facial parts individually, Step-by-step training consisting of making facial expressions step by step and then making facial expressions at once, deriving improvement points from expressionless state, generating and presenting images of soft and likeable facial expressions, and training on areas in need of improvement It may include liking training in which elements are derived and training is performed. Here, the standard model for liking training may be directly selected by the user through the
한편, 사용자 단말(100)은 서비스 서버(200)로부터 제공되는 트레이닝 스케줄에 따른 자신의 표정 영상을 트레이닝 피드백 정보로서 서비스 서버(200)로 전송한다(ST800). Meanwhile, the
서비스 서버(200)는 사용자 단말(100)로부터 수신된 트레이닝 피드백 정보를 분석하여 트레이닝 평가를 수행하고, 이에 대한 트레이닝 결과정보를 사용자 단말(100)로 전송한다(ST900).The
즉, 상기 실시예에 의하면 다양한 표정의 얼굴 영상 분석을 통해 안면 수치를 측정하여 안면 비대칭 상태를 판단하며, 자신의 안면 골격과 가장 유사한 균형 모델의 표정 트레이닝을 통해 사용자의 안면 비대칭을 용이하게 교정할 수 있다. That is, according to the embodiment, facial values are measured through facial image analysis of various facial expressions to determine facial asymmetry, and the user's facial asymmetry can be easily corrected through facial expression training of a balance model most similar to the user's facial skeleton. can
100 : 사용자 단말, 200 : 서비스 서버,
210 : 정보 획득부, 220 : 안면상태 분석부,
230 : 트레이닝 처리부, 240 : 데이터 저장소.100: user terminal, 200: service server,
210: information acquisition unit, 220: facial state analysis unit,
230: training processing unit, 240: data storage.
Claims (6)
서비스 서버에서 무표정 영상에서 눈, 귀, 입을 포함하는 다수의 각 부위 포인트를 추출하는 제2 단계,
서비스 서버에서 무표정 영상에 눈썹 상단을 연장하는 제1 가로 기준선과, 양쪽 눈물샘 포인트에서 제1 가로 기준선간의 거리가 1:1 인 제1 가로 기준선 위치와 양쪽 눈물샘 포인트간 중앙점을 연장하는 세로 기준선 및, 양쪽 입술꼬리 포인트를 연결하는 연장하는 제2 가로 기준선으로 이루어지는 안면 기준선을 생성하는 제3 단계,
서비스 서버에서 무표정 영상에 상기 세로 기준선과 제1 가로 기준선이 만나는 포인트에 상호 수직하는 세로 방향의 세로 중력선과 가로 방향의 제1 가로 중력선 및, 보다 높은 측의 입술꼬리 포인트를 기준으로 세로 중력선과 수직하는 제2 가로 중력선으로 이루어지는 중력 기준선을 생성하는 제4 단계,
서비스 서버에서 상기 각 중력 기준선을 기준으로 안면 기준선의 경사 여부 및 경사 방향을 근거로 비대칭 타입을 결정하되, 비대칭 타입은 제2 가로 기준선만 경사 상태인 제1 비대칭 타입과, 제2 가로 기준선과 제1 가로 기준선이 서로 다른 방향으로 경사 형성된 상태인 제2 비대칭 타입 및, 제2 가로 기준선과 제1 가로 기준선이 동일 방향으로 경사 형성된 상태인 제3 비대칭 타입으로 구분되는 제5 단계,
서비스 서버에서 기 등록된 표준 모델에서 사용자 안면과 가장 유사한 안면 구조의 표준 모델을 결정하고, 사용자의 표정 영상을 이용하여 안면 움직임을 분석하는 제6 단계 및,
서비스 서버에서 비대칭 타입 및 안면 움직임 분석결과를 근거로 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보로 이루어지는 표정 트레이닝 스케쥴을 생성하여 사용자 단말로 제공하는 제7 단계를 포함하여 구성되는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
A first step of acquiring facial images of each user with different facial expressions, including expressionless expressions, as facial expression images in a service server;
A second step of extracting a plurality of points of each part including the eyes, ears, and mouth from the expressionless image in the service server;
A first horizontal reference line extending the top of the eyebrow in the expressionless image in the service server, and a vertical reference line extending the center point between the first horizontal reference line position where the distance between the first horizontal reference line at both lacrimal gland points is 1:1 and both lacrimal gland points, and , a third step of generating a facial reference line consisting of a second horizontal reference line extending to connect both lip tail points;
In the expressionless image in the service server, the vertical gravity line in the vertical direction mutually perpendicular to the point where the vertical reference line and the first horizontal reference line meet, the first horizontal gravity line in the horizontal direction, and the vertical gravity line based on the lip tail point on the higher side A fourth step of generating a gravity reference line consisting of a second vertical horizontal gravity line;
The service server determines an asymmetric type based on whether or not the face reference line is inclined and the direction of the facial reference line with respect to each gravity reference line. The asymmetric type is a first asymmetric type in which only the second horizontal reference line is in an inclined state, A fifth step of dividing into a second asymmetric type in which one horizontal reference line is inclined in different directions and a third asymmetric type in which the second horizontal reference line and the first horizontal reference line are inclined in the same direction;
A sixth step of determining a standard model of a facial structure most similar to the user's face from standard models pre-registered in the service server and analyzing facial movements using the user's facial expression image;
A seventh step of creating a facial expression training schedule consisting of training information to have a facial expression image of a standard model based on the asymmetric type and facial movement analysis result in the service server and providing it to the user terminal Facial expression, characterized in that it is configured to include Facial asymmetry correction service method using training.
상기 제1 단계에서 서비스 서버는 무표정, 기쁨, 놀람, 두려움, 슬픔, 분노, 혐오의 표정을 유도하기 위한 다양한 유도 문장을 사용자 단말로 제시하고, 각 유도 문장에 대한 반응 표정을 사용자의 기본 표정 영상으로 획득하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the first step, the service server presents various induction sentences to the user terminal for inducing expressions of expressionless expression, joy, surprise, fear, sadness, anger, and disgust, and the reaction expression for each induction sentence is a basic facial expression image of the user. Facial asymmetry correction service method using facial expression training, characterized in that obtained by.
상기 제6 단계에서 서비스 서버는 상기 제1 단계에서 획득한 사용자 표정 영상을 조합하여 사용자 표정 영상을 추가 생성한 후, 추가 생성된 표정 영상을 포함한 사용자 표정 영상을 이용하여 안면 움직임을 분석하고,
상기 제7 단계에서 서비스 서버는 추가 생성된 표정 영상을 포함한 표준 모델의 표정 영상을 갖도록 하기 위한 트레이닝 정보를 생성하며,
상기 추가 생성되는 표정 영상은 무표정 영상에 기쁨 영상과 놀람 영상, 두려움 영상, 슬픔 영상, 분노 영상 및 혐오 영상을 순차적으로 조합하여 만족 영상과 경계 영상, 걱정 영상, 낙담 영상, 굳어짐 영상, 멸시 영상을 순차로 추가 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the sixth step, the service server additionally generates a user expression image by combining the user expression images obtained in the first step, and then analyzes the facial movement using the user expression image including the additionally generated expression image,
In the seventh step, the service server generates training information to have a standard model facial expression image including an additionally generated facial expression image,
The additionally generated facial expression image is a satisfaction image, a caution image, a worry image, a discouragement image, a hardening image, and a contempt image by sequentially combining a joy image, a surprise image, a fear image, a sadness image, an anger image, and a disgust image in an expressionless image. A facial asymmetry correction service method using facial expression training, characterized in that sequentially additionally generated.
상기 제4 단계에서 서비스 서버는 중력 기준선과 양쪽 각 부위 포인트간의 거리와 부위 포인트들간 거리를 근거로 비대칭 속성값을 산출하고,
상기 제7 단계에서 서비스 서버는 상기 비대칭 속성값과 관련된 안면 움직임이 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the fourth step, the service server calculates an asymmetric attribute value based on the distance between the gravity reference line and each part point on both sides and the distance between the part points,
In the seventh step, the service server generates training information by selecting a certain number of facial expression images in order of increasing facial movements related to the asymmetry attribute value.
상기 제7 단계에서 서비스 서버는 사용자 표정 영상과 표준 모델의 표정 영상을 비교하여 표정 영상별 안면 움직임 차이를 산출하고, 안면 움직임 차이가 큰 순서로 일정 개수의 표정 영상을 선택하여 트레이닝 정보를 생성하는 것을 특징으로 하는 표정 트레이닝을 이용한 안면 비대칭 교정 서비스 방법.
According to claim 1,
In the seventh step, the service server compares the user's expression image and the expression image of the standard model to calculate the facial movement difference for each facial expression image, and selects a certain number of facial expression images in order of increasing facial movement difference to generate training information Facial asymmetry correction service method using facial expression training, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200132402A KR102497688B1 (en) | 2020-10-14 | 2020-10-14 | Method for correcting facial asymmetry using expression training |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200132402A KR102497688B1 (en) | 2020-10-14 | 2020-10-14 | Method for correcting facial asymmetry using expression training |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220049149A KR20220049149A (en) | 2022-04-21 |
KR102497688B1 true KR102497688B1 (en) | 2023-02-07 |
Family
ID=81437351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200132402A KR102497688B1 (en) | 2020-10-14 | 2020-10-14 | Method for correcting facial asymmetry using expression training |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102497688B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108620A (en) * | 2005-10-13 | 2007-04-26 | Ichiro Hagiwara | Expression training machine |
JP2008264367A (en) * | 2007-04-24 | 2008-11-06 | Nintendo Co Ltd | Training program and training apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ITUA20165257A1 (en) | 2016-06-28 | 2017-12-28 | Lettieri Clealia | METHODOLOGY FOR THE REALIZATION OF A FUNCTIONAL ORTHODONTIC APPARATUS FOR THE TREATMENT OF FACIAL ASYMMETRY |
KR101918119B1 (en) * | 2017-03-10 | 2019-02-08 | 주식회사 모르페우스 | Method, system and non-transitory computer-readable recording medium for estimating anatomical layer of face |
KR102015469B1 (en) * | 2017-06-22 | 2019-08-28 | 연세대학교 산학협력단 | Management System for Treatment of Neurological Disorder and Method thereof |
-
2020
- 2020-10-14 KR KR1020200132402A patent/KR102497688B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007108620A (en) * | 2005-10-13 | 2007-04-26 | Ichiro Hagiwara | Expression training machine |
JP2008264367A (en) * | 2007-04-24 | 2008-11-06 | Nintendo Co Ltd | Training program and training apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20220049149A (en) | 2022-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10802580B2 (en) | Technique for controlling virtual image generation system using emotional states of user | |
CN109298779B (en) | Virtual training system and method based on virtual agent interaction | |
Manjula et al. | Smile: A review | |
US8146005B2 (en) | Creating a customized avatar that reflects a user's distinguishable attributes | |
Iglesias-Linares et al. | Common standards in facial esthetics: craniofacial analysis of most attractive black and white subjects according to people magazine during previous 10 years | |
US11218668B2 (en) | Video conferencing method | |
Angela et al. | Esthetic evaluation of dynamic smiles with attention to facial muscle activity | |
CN112164135A (en) | Virtual character image construction device and method | |
CN112150617A (en) | Control device and method of three-dimensional character model | |
US20230200908A1 (en) | Computing platform for improved aesthetic outcomes and patient safety in medical and surgical cosmetic procedures | |
Niewiadomski et al. | Rhythmic body movements of laughter | |
CN114842522A (en) | Artificial intelligence auxiliary evaluation method applied to beauty treatment | |
KR102497688B1 (en) | Method for correcting facial asymmetry using expression training | |
CN114303142A (en) | Image generation device | |
JP7273752B2 (en) | Expression control program, recording medium, expression control device, expression control method | |
JP2004185437A (en) | Program, server, client and method for body information reflecting chatting | |
CN106249408A (en) | Adjustable virtual reality glasses and prevention and the optical system of myopia correction | |
JP2007175484A (en) | Face classification method, face classifier, classification map, face classification program and recording medium having recorded program | |
KR102497694B1 (en) | System and Method for correcting facial asymmetry based expression training using correction mirror | |
JP6826747B1 (en) | Information processing device and information processing method | |
JP6672414B1 (en) | Drawing program, recording medium, drawing control device, drawing control method | |
US11969543B2 (en) | Video conferencing method | |
US20220370733A1 (en) | Video conferencing method | |
US20240139438A9 (en) | Video conferencing method | |
Choi et al. | Pattern Analysis of Voice Onset and Offset in Normal Adults Using High-Speed Digital Imaging: The Role of Arytenoid Cartilage Movements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |