KR101145672B1 - A smile analysis system for smile self-training - Google Patents

A smile analysis system for smile self-training Download PDF

Info

Publication number
KR101145672B1
KR101145672B1 KR1020110094873A KR20110094873A KR101145672B1 KR 101145672 B1 KR101145672 B1 KR 101145672B1 KR 1020110094873 A KR1020110094873 A KR 1020110094873A KR 20110094873 A KR20110094873 A KR 20110094873A KR 101145672 B1 KR101145672 B1 KR 101145672B1
Authority
KR
South Korea
Prior art keywords
smile
tooth
detected
individual tooth
lip
Prior art date
Application number
KR1020110094873A
Other languages
Korean (ko)
Inventor
송원창
박진웅
강선경
정성태
Original Assignee
원광대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원광대학교산학협력단 filed Critical 원광대학교산학협력단
Priority to KR1020110094873A priority Critical patent/KR101145672B1/en
Application granted granted Critical
Publication of KR101145672B1 publication Critical patent/KR101145672B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Abstract

PURPOSE: A smile analysis system for smile training is provided to clearly analyze various locations of an individual tooth line by accurately detecting the discrete tooth line. CONSTITUTION: An individual tooth line is detected from an image which is inputted from a camera based on smile training database(200). Smile learning database includes shape model training database and profile model training database including location variation information landmarks. The smile tooth line is detected by using the tooth line.

Description

미소 훈련을 위한 미소 분석 시스템{A smile analysis system for smile self-training}A smile analysis system for smile self-training}

본 발명은, 카메라에 실시간으로 입력되는 영상에서 미소학습 데이터베이스를 이용하여 입술라인 및 치아영역을 검출한 후에 개별 치아 영역을 검출하되, 개별 치아 영역은, 치아 영역을 가로방향으로 2차 미분한 후에 열의 평균 밝기를 이용하여 검출한 세로 경계와, 치아 영역을 세로방향으로 2차 미분한 후에 행의 평균 밝기를 이용하여 검출한 가로 경계를 이용하여 검출하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템에 관한 것이다.The present invention, after detecting the lip line and the tooth region using the micro-learning database in the image input to the camera in real time, the individual tooth region is detected, the individual tooth region, after the second derivative in the transverse direction of the tooth region Microscopic analysis for micro training, characterized in that the detection using the vertical boundary detected using the average brightness of the column and the horizontal boundary detected using the average brightness of the row after the second derivative of the tooth region in the longitudinal direction. It is about the system.

자연스럽고 매력적인 미소는 첫 인상을 좋게 만드는데 중요한 역할을 할 뿐만 아니라 안면근의 긴장과 조절을 통해 입꼬리가 처지는 것을 방지하여 주는 등 전체적인 표정을 증진시킴으로써 얼굴이 항상 생기있고 생명력있게 보이는 효과를 제공한다.Natural and attractive smiles not only play an important role in making the first impression, but also enhance the overall expression, such as preventing the tip of the mouth from sagging through tension and control of the facial muscles, providing a face that always looks fresh and vital.

그런데 좋은 미소를 짓기 위해서 주기적으로 미소 클리닉에 찾아가서 치료를 받을 수 있는 방법이 있으나 시간과 돈이 소요되는 단점이 있다.However, in order to have a good smile, there is a way to visit the smile clinic and receive treatment, but it takes time and money.

따라서 실시간으로 자신의 미소를 인식함은 물론 분석 평가하고 또한 더 나아가 밝은 미소를 짓는 훈련을 할 수 있는 시스템이 절실하다.
Therefore, there is an urgent need for a system that not only recognizes one's smile in real time, but also analyzes, evaluates, and even trains to smile brightly.

이하에서, 종래에 개발된 표정인식 시스템 또는 방법에 대하여 검토해본다.Hereinafter, a description will be given of a conventionally developed facial expression recognition system or method.

먼저, 대한민국 등록특허공보 10-0874088호는 영상변이 센싱을 활용한 얼굴인식 시스템에 관한 것으로, 촬영영상에서 영상변이를 판별하고 이에 대응하는 애플리케이션을 적용시키는 것을 특징으로 하고 있다.First, the Republic of Korea Patent Publication No. 10-0874088 relates to a face recognition system using image variation sensing, characterized in that to determine the image variation in the photographed image and apply an application corresponding thereto.

이는 다양한 영상변이에 대응하고자 한다는 점에서 긍정적이나, 미소를 인식하고 훈련시키는 것에 특화되어 있지 않고 웃음표정을 포함한 표정 전반을 다루고 있다는 점에서 본 발명의 문제의식과는 상이하다 하겠다.
This is different from the problem consciousness of the present invention in that it is positive in that it wants to cope with various image variations, but it is not specialized in recognizing and training smiles and covers the whole expression including smile expression.

두 번째로, 대한민국 공개특허공보 10-2010-0024261호는 스마일 레벨을 결정짓는 특징요소를 추출한 후 스마일레벨을 산출하는 것을 특징으로 하고 있다.Secondly, Korean Patent Laid-Open Publication No. 10-2010-0024261 is characterized by calculating a smile level after extracting a feature element that determines the smile level.

또한 특징요소로는 눈 영역 또는 입 영역을 추출하고, 눈의 개구도, 입의 개구도, 눈의 에지 라인이 추종하는 곡선 및 입의 에지 라인이 추종하는 곡선을 수치적으로 평가하여 스마일 레벨을 산출하는 것을 특징으로 하고 있다.In addition, as a feature, the eye level or the mouth area is extracted, and the smile level is numerically evaluated by numerically evaluating the eye opening degree, the mouth opening degree, the curve following the eye edge line, and the curve following the mouth edge line. It is characterized by calculating.

이는 웃음 표정에 특화되어 있다는 점에서 긍정적이나, 밝은 미소에서 중요한 요인으로서의 입술 및 치아의 다양한 위치 관계를 다루고 있지 않으며 또한 미소를 훈련시킬 수 있는 방법이 결여되어 있다는 점에서 본 발명의 문제의식과는 상이하다 하겠다.
This is positive in that it is specialized in the expression of laughter, but it does not deal with the various positional relationship of the lips and teeth as an important factor in bright smiles, and also lacks a method for training the smiles. It's different.

세 번째로, 본 출원인은 출원번호 10-2011-0005930호서, 영상획득부, 미소특징검출부, 미소학습 데이터베이스 및 미소 분석 및 훈련부를 포함하는 실시간 미소 훈련 시스템을 제안한 바 있다.Third, the present applicant has proposed a real-time smile training system including application number 10-2011-0005930, image acquisition unit, microfeature detection unit, microlearning database and microanalysis and training unit.

그런데 본 출원인은 개별 치아 영역을 정밀하게 검출하는 기능 및 검출된 개별 치아 영역을 이용하여 미소를 분석하는 기능을 새롭게 안출한바 본 출원을 통하여 이를 제안하고자 한다.However, the present applicant intends to propose a new function of precisely detecting an individual tooth region and a function of analyzing a smile using the detected individual tooth region.

본 발명의 목적은, 실시간으로 자신의 미소를 인식함은 물론 분석 평가하고 또한 더 나아가 밝은 미소를 짓는 훈련을 할 수 있도록 하되, 밝은 미소의 중요한 요인인 입술 및 치아의 다양한 위치관계를 명확히 인식 및 분석할 수 있는 시스템을 제공함에 있다.The purpose of the present invention is to recognize, recognize, and analyze their own smiles in real time, and furthermore, to train bright smiles, while clearly recognizing and recognizing various positional relationships between lips and teeth, which are important factors of bright smiles. To provide a system that can be analyzed.

본 발명의 목적은, 개별 치아 영역을 정밀하게 검출하여 입술 및 개별 치아영역의 다양한 위치관계를 명확히 인식 및 분석할 수 있는 시스템을 제공함에 있다.
SUMMARY OF THE INVENTION An object of the present invention is to provide a system capable of precisely detecting individual tooth regions and clearly recognizing and analyzing various positional relationships of lips and individual tooth regions.

본 발명은, 카메라에 실시간으로 입력되는 영상에서 미소학습 데이터베이스를 이용하여 입술라인 및 치아영역을 검출한 후에 개별 치아 영역을 검출하되, 개별 치아 영역은, 치아 영역을 가로방향으로 2차 미분한 후에 열의 평균 밝기를 이용하여 검출한 세로 경계와, 치아 영역을 세로방향으로 2차 미분한 후에 행의 평균 밝기를 이용하여 검출한 가로 경계를 이용하여 검출하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템을 제공함으로써, 기술적 과제를 해결하고자 한다. The present invention, after detecting the lip line and the tooth region using the micro-learning database in the image input to the camera in real time, the individual tooth region is detected, the individual tooth region, after the second derivative in the transverse direction of the tooth region Microscopic analysis for micro training, characterized in that the detection using the vertical boundary detected using the average brightness of the column and the horizontal boundary detected using the average brightness of the row after the second derivative of the tooth region in the longitudinal direction. By providing a system, the technical problem is solved.

본 발명인 미소 훈련을 위한 미소 분석 시스템은, 개별 치아 영역을 정밀하게 검출하여 입술 및 개별 치아영역의 다양한 위치관계를 명확히 인식 및 분석할 수 현저한 효과가 있다.The present inventors smile analysis system for the smile training, it is possible to precisely detect the individual tooth region can clearly recognize and analyze the various positional relationship of the lips and the individual tooth region has a significant effect.

또한 실시간으로 자신의 미소를 분석함은 물론 더 나아가 밝은 미소를 짓는 훈련을 제공할 수 있는 현저한 효과가 있다.It also has the significant effect of not only analyzing your smile in real time, but also providing you with a bright smile training.

도 1은 본 발명의 일실시예에 따른 미소 훈련을 위한 미소 분석 시스템의 주요 구성도이다.
도 2는 본 발명의 일실시예에 따른 미소 분석 시스템에서 형태모델 학습DB 및 프로파일모델 학습DB를 구축하기 위한 영상의 일예이다.
도 3은 본 발명의 일실시예에 따른 미소 분석 시스템에서 형태모델 학습DB 및 프로파일모델 학습DB를 구축하기 위한 영상의 일예이다.
도 4는 본 발명의 일실시예에 따른 미소 분석 시스템에서 형태모델 학습DB 및 프로파일모델 학습DB를 구축하기 위하여 랜드마크가 표시된 일예이다.
도 5는 본 발명의 일실시예에 따른 미소 분석 시스템에서 프로파일모델 학습DB를 구축하는 과정을 설명하기 위한 도면이다.
도 6은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 얼굴 특징을 검출한 일예이다.
도 7은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 입술 랜드마크를 검출한 일예이다.
도 8은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 치아 영역을 검출한 일예이다.
도 9는 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 도 8의 치아 영역을 가로방향 2차 미분한 결과의 일예이다.
도 10은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 도 9의 결과를 평균값 히스토그램 처리한 일예이다.
도 11은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 도 8의 치아 영역을 세로방향 2차 미분한 결과의 일예이다.
도 12는 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 도 11의 결과를 평균값 히스토그램 처리한 일예이다.
도 13은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 검출된 개별 치아 영역의 일예이다.
도 14는 본 발명의 일실시예에 따른 미소 분석 시스템의 상순위치 분석모듈에서 상순의 위치를 분석하는 일예이다.
도 15는 본 발명의 일실시예에 따른 미소 분석 시스템의 상순만곡 분석모듈에서 상순의 만곡을 분석하는 일예이다.
도 16 및 도 17은 본 발명의 일실시예에 따른 미소 분석 시스템의 상악치아와 하순 관계 분석모듈에서 상악 치아 형태 및 하순의 관계를 분석하는 일예이다.
도 18은 본 발명의 일실시예에 따른 미소 분석 시스템의 하순의 상악치아 접촉 분석모듈에서 하순의 상악 치아 접촉 관계를 분석하는 일예이다.
도 19는 본 발명의 일실시예에 따른 미소 분석 시스템의 치아노출 분석모듈에서 미소 지을 때 노출되는 치아를 분석하는 일예이다.
도 20은 본 발명의 일실시예에 따른 미소 분석 시스템을 적용하기 위한 실험데이터 영상이다.
도 21은 본 발명의 일실시예에 따른 미소 분석 시스템을 도 20의 데이터에 적용하여 검출된 얼굴 특징 영상이다.
도 22는 본 발명의 일실시예에 따른 미소 분석 시스템을 도 20의 데이터에 적용하여 검출된 입술라인과 개별 치아 영역이다.
도 23은 본 발명의 일실시예에 따른 미소 분석 시스템을 도 20의 데이터에 적용한 결과와 병원의 평점 결과를 함께 도시한 도면이다.
1 is a main configuration of a smile analysis system for a smile training according to an embodiment of the present invention.
2 is an example of an image for constructing a shape model learning DB and a profile model learning DB in a microanalysis system according to an embodiment of the present invention.
3 is an example of an image for constructing a shape model learning DB and a profile model learning DB in a microanalysis system according to an embodiment of the present invention.
4 is an example in which a landmark is displayed to construct a shape model learning DB and a profile model learning DB in a microanalysis system according to an embodiment of the present invention.
5 is a view for explaining a process of building a profile model learning DB in a microanalysis system according to an embodiment of the present invention.
6 is an example of detecting facial features in the lip line and the tooth detector of the smile analysis system according to an embodiment of the present invention.
7 is an example of detecting a lip landmark in the lip line and the tooth detection unit of the smile analysis system according to an embodiment of the present invention.
8 is an example of detecting a tooth region in a lip line and a tooth detector of a smile analysis system according to an exemplary embodiment of the present invention.
FIG. 9 is an example of a result of horizontally differentiating the tooth region of FIG. 8 in the lip line and the tooth detector of the microanalysis system according to the exemplary embodiment of the present invention.
FIG. 10 is an example of average histogram processing of the results of FIG. 9 in the lip line and the tooth detector of the microanalysis system according to an exemplary embodiment of the present invention.
FIG. 11 is an example of a result of longitudinally differentiating the tooth region of FIG. 8 in the lip line and the tooth detector of the microanalysis system according to the exemplary embodiment of the present invention.
FIG. 12 is an example in which a lip line and a tooth detector of the smile analysis system according to an exemplary embodiment of the present invention process the mean value histogram.
13 is an example of individual tooth regions detected by the lip line and the tooth detector of the smile analysis system according to an exemplary embodiment of the present invention.
14 is an example of analyzing the position of the upper lip in the priority analysis module of the microanalysis system according to an embodiment of the present invention.
15 is an example of analyzing the curve of the upper lip in the upper lip curve analysis module of the microanalysis system according to an embodiment of the present invention.
16 and 17 illustrate an example of analyzing the relationship between maxillary tooth shape and the lip in the maxillary tooth and the lip relation analysis module of the microanalysis system according to the exemplary embodiment of the present invention.
18 is an example of analyzing the maxillary tooth contact relationship of the lower lip in the lower maxillary tooth contact analysis module of the microanalysis system according to an embodiment of the present invention.
19 is an example of analyzing the teeth exposed when smiling in the tooth exposure analysis module of the smile analysis system according to an embodiment of the present invention.
20 is an experimental data image for applying a micro analysis system according to an embodiment of the present invention.
FIG. 21 is a facial feature image detected by applying the microanalysis system according to an exemplary embodiment to the data of FIG. 20.
FIG. 22 is a lip line and an individual tooth region detected by applying the microanalysis system according to an embodiment of the present invention to the data of FIG. 20.
FIG. 23 is a diagram illustrating a result of applying a microanalysis system according to an embodiment of the present invention to the data of FIG. 20 and a hospital score.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 안 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms and the inventor may properly define the concept of the term in order to best describe its invention It should be construed as meaning and concept consistent with the technical idea of the present invention.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

이하, 도면을 참조하여 설명하기에 앞서, 본 발명의 요지를 드러내기 위해서 필요하지 않은 사항 즉 통상의 지식을 가진 당업자가 자명하게 부가할 수 있는 공지 구성에 대해서는 도시하지 않거나, 구체적으로 기술하지 않았음을 밝혀둔다.
Before describing the present invention with reference to the accompanying drawings, it should be noted that the present invention is not described or specifically described with respect to a known configuration that can be easily added by a person skilled in the art, Let the sound be revealed.

도 1은 본 발명의 일실시예에 따른 미소 훈련을 위한 미소 분석 시스템의 주요 구성도이다. 1 is a main configuration of a smile analysis system for a smile training according to an embodiment of the present invention.

본 발명의 일실시예에 따른 미소 훈련을 위한 미소 분석 시스템은 영상획득부(100), 얼굴형태모델 학습부(200), 미소특징 검출부(300) 및 미소 분석부(400)를 포함한다. The smile analysis system for smile training according to an embodiment of the present invention includes an image acquisition unit 100, a face shape model learning unit 200, a smile feature detection unit 300, and a smile analysis unit 400.

먼저, 영상획득부(100)는 얼굴이 포함된 영상을 입력받아 미소특징 검출부(300)로 전달하는 수단으로서, PC에 연결되어 있는 웹카메라 또는 모바일 단말기에 내장되어 있는 카메라 등과 같은 촬상수단을 포함하는 구성으로서, 실시간으로 획득된 얼굴 영상을 미소특징 검출부(300)로 전달하는 기능을 수행한다. First, the image acquisition unit 100 is a means for receiving an image containing a face and transmits it to the microfeature detection unit 300, and includes an imaging means such as a web camera connected to a PC or a camera embedded in a mobile terminal. As a configuration, the facial image obtained in real time is transferred to the microfeature detection unit 300.

바람직하게, 영상획득부(100)는 데이터 케이블을 통해 모바일 단말기 또는 외장 하드디스크에 저장된 영상이나 인터넷 등 기타 네트워크 수단을 통해 전송되는 영상을 전달 처리하는 기능도 수행할 수 있도록 설계된다.
Preferably, the image acquisition unit 100 is also designed to perform a function of transferring the image transmitted to the mobile terminal or the image stored in the external hard disk via the data cable or other network means such as the Internet via a data cable.

얼굴형태모델 학습부(200)는 미소특징 검출부(300)에서 얼굴특징, 입술라인 및 개별 치아 영역을 검출하는데 필요한 형태모델 학습DB 및 프로파일모델 학습DB를 구축하는 구성으로서, 능동형태모델(ASM, Active Shape Model) 학습모듈, 형태모듈 학습DB 및 프로파일 학습DB를 포함한다.
The face shape model learning unit 200 is a configuration for constructing a shape model learning DB and a profile model learning DB necessary for detecting a facial feature, a lip line, and an individual tooth region in the microfeature detection unit 300. The active shape model (ASM, Active Shape Model) includes learning module, shape module learning DB and profile learning DB.

능동형태모델 학습모듈은 다수의 영상 이미지를 이용하여 형태모델 학습DB 및 프로파일모델 학습DB를 구축하게 된다. The active shape model learning module constructs a shape model learning DB and a profile model learning DB using a plurality of video images.

여기에서, 별도의 형태모델 학습DB 및 프로파일모델 학습DB를 구축하는 가장 큰 이유는 기존의 얼굴 또는 표정 인식을 위한 학습DB는 미소를 짓는 영상이 충분하지 않고 따라서 본 발명이 추구하는 바의 미소특징 검출 및 분석에 적합하지 않기 때문이다.
Here, the biggest reason for building a separate shape model learning DB and profile model learning DB is that the existing learning DB for face or facial expression recognition does not have enough images to smile and therefore the features of the present invention. This is because it is not suitable for detection and analysis.

도 2 및 도 3은 본 발명의 일실시예에 따른 미소 분석 시스템에서 형태모델 학습DB 및 프로파일모델 학습DB를 구축하기 위한 영상의 일예이고, 도 4는 형태모델 학습DB 및 프로파일모델 학습DB를 구축하기 위하여 랜드마크가 표시된 일예이다.2 and 3 are examples of images for constructing the shape model learning DB and the profile model learning DB in the microanalysis system according to an embodiment of the present invention, and FIG. 4 shows the shape model learning DB and the profile model learning DB. For example, landmarks are displayed.

바람직하게, 능동형태모델 학습모듈은, 도 2와 같이 정면, 좌측 및 좌측반전의 세 방향에서 촬영된 영상 이미지와, 도 3과 같이 무표정에서 밝게 웃는 미소까지 4 단계로 나누어 촬영된 영상 이미지를 이용하되, 도 4와 같이 86개의 랜드마크가 표시되게끔 함으로서 형태모델 학습DB 및 프로파일모델 학습DB를 구축하게 된다.Preferably, the active shape model learning module uses an image image photographed in three stages from an image image photographed in three directions of front, left and left inversion as shown in FIG. 2, and a smile smiling brightly in the expressionless manner as shown in FIG. 3. However, as shown in FIG. 4, 86 landmarks are displayed to build a shape model learning DB and a profile model learning DB.

여기에서, 86개의 랜드마크는 얼굴의 윤곽, 눈, 눈썹, 코, 입, 입술의 윤곽을 표현하는 좌표값으로 표현되며, 각 부분의 랜드마크 개수는 얼굴 윤곽 15개(0~14번), 우측 눈썹 6개(15~20번), 좌측 눈썹 6개(21~26번), 좌측 눈 9개(27~35번), 우측 눈 9개(36~44번), 코 15개(45~59번), 입과 입술은 25개(60~84번) 및 콧마루 1개(85번)로 배정된다.Here, the 86 landmarks are represented by coordinate values representing the outline of the face, eyes, eyebrows, nose, mouth, and lips, and the number of landmarks in each part is 15 face outlines (numbers 0 to 14), 6 right eyebrows (15-20), 6 left eyebrows (21-26), 9 left eyes (27-35), 9 right eyes (36-44), 15 noses (45- 59), 25 mouths (60-84) and 1 ridge (85).

설계조건에 따라, 각 부분의 랜드마크 개수 및 위치가 변경되어 형태모델 학습DB 및 프로파일모델 학습DB가 구축될 수 있음은 물론이다.
According to the design conditions, the shape model learning DB and the profile model learning DB may be constructed by changing the number and location of landmarks of each part.

능동형태모델 학습모듈은 86개 랜드마크 좌표값을 이용하여 형태모델 학습DB를 구축하게 되는데, 다수의 영상에 있는 얼굴형태는 각각 크기와 방향이 모두 다양하므로 이들을 대표하는 하나의 모델을 구성하기 위해, 유사한 크기 및 방향을 갖고 무게중심의 좌표가 동일하도록 확대/축소, 이동, 회전변환 등의 선형 기하학적 변환을 거쳐 랜드마크 좌표값을 정규화하며, 그 후에 평균벡터를 생성한다.The active shape model learning module constructs a shape model learning DB using 86 landmark coordinate values. In order to construct one model representing them, face shapes in multiple images have different sizes and directions. The normalized landmark coordinate values are subjected to linear geometric transformations such as zoom, shift, rotation, and the like so that the coordinates of the center of gravity have the same size and direction, and the coordinates of the center of gravity are the same.

여기에서, 86개 랜드마크의 정규화 벡터인

Figure 112011073233048-pat00001
에 대해 평균벡터
Figure 112011073233048-pat00002
가 생성되는 것이 다음 식에 나와 있다.Here, the normalized vector of 86 landmarks
Figure 112011073233048-pat00001
Mean vector for
Figure 112011073233048-pat00002
Is generated by the following equation.

Figure 112011073233048-pat00003
Figure 112011073233048-pat00003

여기에서,

Figure 112011073233048-pat00004

From here,
Figure 112011073233048-pat00004

평균벡터를 생성한 후에는 각 영상의 정규화 벡터들이 평균벡터에서 얼마나 벗어나 있는지 나타내는 변위벡터를 구하며, 그 후에 변위벡터에 대해 공분산행렬을 생성한다.
After generating the mean vector, a displacement vector representing how far from the mean vector the normalized vectors of each image is obtained, and then a covariance matrix is generated for the displacement vector.

여기에서, 변위벡터

Figure 112011073233048-pat00005
에 대해 공분산행렬
Figure 112011073233048-pat00006
를 생성하는 것이 다음 식에나와 있다.Where the displacement vector
Figure 112011073233048-pat00005
Covariance matrix for
Figure 112011073233048-pat00006
To generate the equation

Figure 112011073233048-pat00007
Figure 112011073233048-pat00007

여기에서,

Figure 112011073233048-pat00008
From here,
Figure 112011073233048-pat00008

공분산행렬을 생성한 후에는 다음 식을 만족하는 고유벡터 및 고유값을 생성한다. After generating the covariance matrix, eigenvectors and eigenvalues are generated that satisfy the following equation.

Figure 112011073233048-pat00009
Figure 112011073233048-pat00009

여기에서,

Figure 112011073233048-pat00010
는 고유벡터,
Figure 112011073233048-pat00011
는 고유값이며,
Figure 112011073233048-pat00012
가 되도록 정렬한다.
From here,
Figure 112011073233048-pat00010
Is the eigenvector,
Figure 112011073233048-pat00011
Is an eigenvalue,
Figure 112011073233048-pat00012
Sort to be

각 영상의 얼굴형태는 고유벡터를 이용하여 다음 식과 같이 생성된다.The face shape of each image is generated using the eigenvector as shown in the following equation.

Figure 112011073233048-pat00013
Figure 112011073233048-pat00013

여기에서,

Figure 112011073233048-pat00014
는 앞에서부터 k개의 고유벡터이고,
Figure 112011073233048-pat00015
는 각 고유벡터의 가중치를 나타내는 벡터이다.
From here,
Figure 112011073233048-pat00014
Is k eigenvectors from the beginning,
Figure 112011073233048-pat00015
Is a vector representing the weight of each eigenvector.

즉 고유벡터의 가중치에 따라 얼굴형태는 달라지며, 고유값

Figure 112011073233048-pat00016
는 고유벡터
Figure 112011073233048-pat00017
방향으로 학습데이터가 분포하는 분산을 의미하게 된다.In other words, the face shape varies according to the weight of the eigenvector,
Figure 112011073233048-pat00016
Is the eigenvector
Figure 112011073233048-pat00017
It means the variance that the learning data is distributed in the direction.

따라서 정규분포의 경우 대부분의 데이터는 표준편차의 3배 이내에 분포하므로 가중치도 이에 따르도록 제한하며,

Figure 112011073233048-pat00018
범위가 되도록 한다.Therefore, in the case of normal distribution, most data are distributed within three times the standard deviation, so the weight is limited accordingly.
Figure 112011073233048-pat00018
To be in range.

이와 같이, 능동형태모델 학습모듈은 각 영상의 이미지로부터 상기와 같은 과정을 거쳐 얼굴형태를 생성함으로써, 형태모델 학습DB를 생성하게 된다.
As such, the active shape model learning module generates the shape model learning DB by generating the face shape through the above process from the image of each image.

도 5는 본 발명의 일실시예에 따른 미소 분석 시스템에서 프로파일모델 학습DB를 구축하는 과정을 설명하기 위한 도면이다.5 is a view for explaining a process of building a profile model learning DB in a microanalysis system according to an embodiment of the present invention.

능동형태모델 학습모듈은 형태모델 학습DB를 생성한 후에 각 랜드마크를 중심으로 프로파일모델 학습DB를 생성하게 된다.The active shape model learning module generates a shape model learning DB and then generates a profile model learning DB around each landmark.

여기에서, 프로파일은 랜드마크 주위의 영상이 어떤 모습인지를 나타내는 것으로서, 도 5와 같이 랜드마크에서 윤곽선에 수직인 선을 따라 샘플링된 픽셀 변화값의 1차원 벡터를 이용하여 생성된다.Here, the profile indicates what the image around the landmark looks like, and is generated using a one-dimensional vector of pixel change values sampled along a line perpendicular to the contour line of the landmark as shown in FIG. 5.

바람직하게, 형태모델 학습DB를 생성하는 것과 유사하게, 영상 이미지의 각 랜드마크마다 프로파일 벡터

Figure 112011073233048-pat00019
를 구하고, 전체 랜드마크에 대해 평균 프로파일 벡터
Figure 112011073233048-pat00020
를 구한 후에, 공분산행렬
Figure 112011073233048-pat00021
를 구하는 과정을 통해 프로파일모델 학습DB를 생성하게 된다.
Preferably, similarly to generating a shape model training DB, a profile vector for each landmark of the image image
Figure 112011073233048-pat00019
To obtain the mean profile vector for the entire landmark.
Figure 112011073233048-pat00020
After obtaining, covariance matrix
Figure 112011073233048-pat00021
Through the process of obtaining the profile model training DB is created.

이하, 미소특징 검출부(300)의 구성 및 기능에 대해 서술한다.Hereinafter, the structure and function of the microfeature detection part 300 are demonstrated.

미소특징 검출부(300)는 얼굴검출모듈과 입술라인 및 치아 검출부(310)를 포함하며, 입술라인 및 치아 검출부(310)는 얼굴특징검출모듈, 입술라인검출모듈 및 치아검출모듈을 포함한다.The microfeature detection unit 300 includes a face detection module, a lip line and a tooth detection unit 310, and the lip line and the tooth detection unit 310 includes a face feature detection module, a lip line detection module, and a tooth detection module.

영상획득부(100)에서 실시간으로 획득된 영상을 미소특징 검출부(300)에 전달하면, 미소특징 검출부(300)는 얼굴검출모듈을 이용하여 얼굴을 검출한 후에, 입술라인 및 치아 검출부(310)는 형태모델 학습DB 및 프로파일모델 학습DB를 이용하여 미소특징을 검출하게 된다.
When the image acquired in real time from the image acquisition unit 100 is transferred to the microfeature detection unit 300, the microfeature detection unit 300 detects a face using the face detection module, and then the lip line and the tooth detection unit 310. The microfeature is detected using the shape model training DB and the profile model training DB.

먼저, 얼굴검출모듈은 영상획득부(100)에서 전달된 영상 이미지에서 얼굴을 검출하는 기능을 수행하되, 일예로 Haar-like 특징을 이용한 검출방식과 AdaBoost 검출방식을 함께 사용하거나 또는 AdaBoost 방식만을 사용하도록 설계된다.First, the face detection module performs a function of detecting a face in the image image transmitted from the image acquisition unit 100, for example, using a detection method using the Haar-like feature and the AdaBoost detection method or using only the AdaBoost method. It is designed to.

바람직하게, 얼굴검출모듈은 상기 서술한 방식 이외에도 본 발명의 목적에 맞게 다른 방식을 채용하도록 설계될 수 있음은 물론이다.
Preferably, the face detection module may be designed to adopt a different method for the purpose of the present invention in addition to the above-described method.

얼굴특징검출모듈은 얼굴검출모듈에서 검출한 얼굴 영역, 형태모델 학습DB 및 프로파일모델 학습DB를 이용하여 얼굴윤곽, 눈, 눈썹, 코, 입, 입술 등의 얼굴특징을 검출하게 된다. The facial feature detection module detects facial features such as face contour, eyes, eyebrows, nose, mouth, and lips using the face region, the shape model training DB, and the profile model training DB detected by the face detection module.

구체적으로 보면, 먼저, 검출된 얼굴 영역 위에 형태모델 학습 DB에 형성되어 있는 얼굴형태를 위치시킨 후에, 형태를 변화시켜 가면서 검출된 얼굴과 부합되는 얼굴형태를 탐색하며, 탐색된 얼굴형태와 검출된 얼굴 영역과의 차이가 일정 수준 이하가 되면 탐색을 멈추게 된다.Specifically, first, the face shape formed in the shape model training DB is placed on the detected face area, and then the face shape corresponding to the detected face is changed while changing the shape, and the detected face shape and the detected face shape are detected. When the difference with the face area is below a certain level, the search stops.

여기에서, 검출된 얼굴 영역의 크기나 방향이 형태모델 학습DB에 있는 얼굴형태의 크기 및 방향과 다를 수 있으므로 확대/축소 및/또는 회전변환을 미리 적용하도록 설계된다.
Here, since the size or direction of the detected face area may be different from the size and direction of the face shape in the shape model training DB, it is designed to apply the enlargement / reduction and / or rotation transformation in advance.

얼굴특징검출모듈이 형태모델 학습DB를 이용하여 얼굴형태를 탐색한 후에는, 프로파일모델 학습DB를 이용하여 다시 각 랜드마크의 변화에 근접한 프로파일모델을 탐색함으로써 얼굴특징을 검출하게 된다.After the face feature detection module searches for the face shape using the shape model training DB, the face feature detection module detects the face feature by using the profile model training DB to search for a profile model that is close to the change of each landmark.

즉, 검출된 얼굴영역의 랜드마크에 대해, 윤곽선에 수직인 선을 따라 랜드마크를 이동시키면서 각 위치에서의 프로파일벡터

Figure 112011073233048-pat00022
를 구한 후에 프로파일모델과 가장 유사한 위치를 탐색한다.That is, with respect to the landmark of the detected face region, the profile vector at each position while moving the landmark along a line perpendicular to the contour line
Figure 112011073233048-pat00022
After finding, we search for the location most similar to the profile model.

일예로, 어느 위치에서의 프로파일 벡터가 프로파일모델과 유사한지는 프로파일모델의 평균 프로파일 벡터

Figure 112011073233048-pat00023
와 공분산행렬
Figure 112011073233048-pat00024
를 사용하여 다음 식과 같은 Mahalnanobis 거리를 이용하여 구할 수 있다.For example, the mean profile vector of the profile model at which position the profile vector is similar to the profile model.
Figure 112011073233048-pat00023
And covariance matrix
Figure 112011073233048-pat00024
Using the Mahalnanobis distance, we can get

Figure 112011073233048-pat00025
Figure 112011073233048-pat00025

여기에서, 랜드마크를 이동시키면서 프로파일벡터

Figure 112011073233048-pat00026
를 구하기 때문에, 일부 랜드마크는 불안정한 위치에 올 수 있고 결국 이미 탐색되었던 얼굴형태가 학습DB의 범위를 벗어날 수 있는 가능성이 있다.Here, profile vector while moving landmark
Figure 112011073233048-pat00026
Since some of the landmarks may come in an unstable position, there is a possibility that the face shape that has already been searched may be out of the range of the learning DB.

따라서 랜드마크를 이동시키면서 형성된 얼굴형태

Figure 112011073233048-pat00027
와, 형태모델 학습DB에서 구할 수 있는
Figure 112011073233048-pat00028
(
Figure 112011073233048-pat00029
는 얼굴형태
Figure 112011073233048-pat00030
의 근사화한 형태)의 차이가 최소화 되는
Figure 112011073233048-pat00031
를 이용하여 상기 수학식 5를 반복 수행할 필요성이 있다.
Therefore, the face shape formed while moving the landmark
Figure 112011073233048-pat00027
Wow, available from the shape model training DB
Figure 112011073233048-pat00028
(
Figure 112011073233048-pat00029
Face shape
Figure 112011073233048-pat00030
Approximation of the difference)
Figure 112011073233048-pat00031
It is necessary to repeat the above equation (5).

다음 식은

Figure 112011073233048-pat00032
를 구하는 식이다.The following formula
Figure 112011073233048-pat00032
To obtain.

Figure 112011073233048-pat00033
Figure 112011073233048-pat00033

여기에서

Figure 112011073233048-pat00034
는 형태모델을 영상 이미지의 형태공간으로 사상하는 변환을 의미한다.
From here
Figure 112011073233048-pat00034
Means transforming the shape model into the shape space of the video image.

도 6은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 얼굴 특징을 검출한 일예이다.
6 is an example of detecting facial features in the lip line and the tooth detector of the smile analysis system according to an embodiment of the present invention.

정리해서 보면, 얼굴특징검출모듈에서, 형태모델 학습DB를 이용하여 얼굴형태를 탐색한 후에, 미소를 짓는 표정에 대한 랜드마크의 변화를 탐색하고자 프로파일모델 학습DB를 이용하되 얼굴형태가 학습DB의 범위를 벗어나지 않도록 제한하면서 얼굴윤곽, 눈, 눈썹, 코, 입, 입술 등의 얼굴특징을 검출하게 된다.
In summary, in the facial feature detection module, after searching for the face shape using the shape model training DB, the profile model learning DB is used to search for the change of the landmark for the smiling expression. Face features such as facial contours, eyes, eyebrows, noses, mouths, and lips are detected while limiting the range.

얼굴특징검출모듈에서 얼굴특징을 검출한 후에는, 입술라인검출모듈 및 치아검출모듈은 입술라인 및 개별 치아 영역을 각각 검출하게 된다.After the facial feature detection module detects the facial feature, the lip line detection module and the tooth detection module detect the lip line and the individual tooth region, respectively.

여기에서, 입술라인검출모듈 및 치아검출모듈은 미소 분석부(400)에 포함되어 있는 입술 및 치아 분석부(410)에 포함된 모듈들에 포함되거나 또는 그 반대의 경우도 가능하도록 구성될 수 있다는 것을 미리 밝혀둔다.Herein, the lip line detection module and the tooth detection module may be configured to be included in the modules included in the lip and tooth analysis unit 410 included in the smile analyzer 400 or vice versa. Find out in advance.

도 7은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 입술 랜드마크를 검출한 일예이다.
7 is an example of detecting a lip landmark in the lip line and the tooth detection unit of the smile analysis system according to an embodiment of the present invention.

먼저, 입술라인검출모듈은 영상 이미지로부터 상순 및 하순을 포함하는 영역을 추출하고, 동시에 얼굴특징검출모듈에서 검출된 정보를 이용하여 입술라인을 검출한다.First, the lip line detection module extracts an area including the upper and lower order from the image image and simultaneously detects the lip line using the information detected by the facial feature detection module.

일예로, 도 7에 입술 양 끝점(RCh, LCh, 랜드마크는 각각 78, 84), 상순의 중앙 아래점(CLow, 랜드마크는 81), 하순의 중앙 윗점(CLab, 랜드마크는 75)를 검출한 것이 도시되어 있다.
For example, in FIG. 7, both ends of the lips (RCh, LCh, landmarks 78 and 84), upper middle lower point (CLow, landmark 81), and lower middle upper point (CLab, landmark 75) are shown. The detection is shown.

도 8은 본 발명의 일실시예에 따른 미소 분석 시스템의 입술라인 및 치아 검출부에서 치아 영역을 검출한 일예이다.
8 is an example of detecting a tooth region in a lip line and a tooth detector of a smile analysis system according to an exemplary embodiment of the present invention.

치아검출모듈은 치아 영역 영상을 검출하고, 치아 영역 영상에 대해 가로방향 및 세로방향에 대해 2차 미분을 실행한 후에 각각 히스토그램 프로젝션 처리를 함으로써, 개별 치아 영역을 검출한다.
The tooth detection module detects the tooth region image, detects the individual tooth region by performing histogram projection processing after performing the second derivative in the horizontal and vertical directions with respect to the tooth region image.

먼저, 도 8에 도시된 바와 같이, 73~84번의 랜드마크로 둘러싸인 치아 영역을 검출한다. First, as illustrated in FIG. 8, a tooth region surrounded by landmarks 73 to 84 is detected.

다음으로, 검출된 치아 영역을 대상으로 개별 치아 영역을 정밀하게 검출하는 작업을 수행한다.
Next, an operation of precisely detecting individual tooth regions is performed based on the detected tooth regions.

도 9는 도 8의 치아 영역을 가로방향으로 2차 미분한 결과의 일예로서, 각 치아의 세로방향 경계의 픽셀값이 치아면 내부의 픽셀값보다 밝음을 알 수 있다.FIG. 9 is an example of a result of the second derivative of the tooth region of FIG. 8 in the horizontal direction, and it can be seen that the pixel value of the longitudinal boundary of each tooth is brighter than the pixel value inside the tooth surface.

바람직하게, 3x3 크기의 수직 경계선 검출용 소벨 마스크를 사용하여 가로방향으로 2차 미분을 수행하며, 설계조건에 따라서는 다른 방식이 채용될 수 있음은 물론이다.
Preferably, the second derivative is performed in the horizontal direction using a 3 × 3 size Sobel mask for vertical boundary detection, and of course, a different method may be employed depending on design conditions.

도 10은 도 9의 결과를 평균값 히스토그램 처리한 결과로서, 정확한 경계를 찾기 위하여 수행된다.FIG. 10 is a result of average histogram processing of the result of FIG. 9 and is performed to find an accurate boundary.

도 9의 영상에서 각 열에 대한 세로 픽셀의 평균값을 구하면 도 10(a)와 같이 도시되는데, 여기에서 주변 열보다 값이 큰 열은 남기고 나머지 열을 제거하면 도 10(b)와 같은 결과를 얻게 된다.
In the image of FIG. 9, the average value of the vertical pixels for each column is obtained as shown in FIG. 10 (a), where a column having a larger value than the surrounding column is left and the remaining columns are removed. do.

다음으로, 남아 있는 열중에서 치아의 정중앙 경계선에 해당하는 열을 먼저 결정하는데, 랜드마크 중에서 81번이 입술의 정중앙 위치임을 이용한다.Next, among the remaining heat, the heat corresponding to the centerline boundary line of the tooth is first determined, using number 81 of the landmarks as the center position of the lips.

즉 남아있는 열중에서 평균 밝기 값이 상대적으로 크고 81번 랜드마크에 가장 가까운 열을 치아의 정중앙 경계선 위치로 결정한다.
That is, among the remaining heat, the average brightness value is relatively large and the heat closest to the landmark 81 is determined as the position of the central boundary line of the tooth.

치아의 정중앙 경계선을 결정한 다음에는 가운데 2개 치아의 바깥 경계선을 찾는다.After determining the centerline of the tooth, find the outer boundary of the middle two teeth.

일반적으로 치아의 크기는 좌우 대칭이므로 남아 있는 열중에서 치아 정중앙 경계선으로부터 비슷한 거리에 있고 평균 밝기 값이 큰 두 열을 선택하여 가운데 2개 치아의 세로 경계선으로 결정한다.
In general, the size of the tooth is symmetrical, so the remaining columns have a distance that is a similar distance from the center of the tooth and the average brightness is selected to determine the vertical boundary of the middle two teeth.

바람직하게, 본 발명에서는 상악 치아 중에서 가운데 6개 치아를 검출 대상으로 정하고 있으므로, 도 10(c)와 같이 치아 중앙으로부터 좌우로 일정영역 안에 있는 열중에서 평균 밝기 값이 상위 7개 이내에 드는 열만 남기고 나머지는 제거한다. Preferably, in the present invention, since the six teeth among the maxillary teeth are selected as the detection target, as shown in FIG. Remove.

설계조건에 따라서, 8개 치아를 검출 대상으로 할 때에는 상위 9개를 이용할 수 있음은 물론이다.
Depending on the design conditions, the upper nine can be used when the eight teeth are to be detected.

가운데 2개 치아의 세로 방향 경계를 찾은 다음에는 2개 치아의 가로 방향 경계를 검출하기 위해서, 도 8의 치아 영역을 세로방향으로 2차 미분을 수행한다.After finding the longitudinal boundary of the middle two teeth, the second derivative is longitudinally performed in the tooth region of FIG. 8 to detect the horizontal boundary of the two teeth.

도 11은 세로방향 2차 미분의 결과로서, 가로 경계의 픽셀 값이 밝게 보임을 알 수 있다.
FIG. 11 shows that the pixel values of the horizontal boundary appear bright as a result of the vertical second derivative.

도 12 (a)는 도 11의 결과를 평균값 히스토그램 처리한 결과로서, 정확한 경계를 찾기 위하여 수행된다.FIG. 12A is a result of the average value histogram processing of the result of FIG. 11 and is performed to find an accurate boundary.

다음으로, 도 12(a) 중에서 최고 값을 가지는 행만 남기고 나머지 잡음 성분의 행을 삭제하면, 도 12(b)와 같이 치아의 가로 경계를 찾을 수 있다.
Next, if only the row having the highest value is left in FIG. 12 (a) and the remaining rows of noise components are deleted, the horizontal boundary of the tooth can be found as shown in FIG. 12 (b).

따라서 상기 도 10(c)에서 찾은 가운데 2개 치아의 세로 경계와 도 12(b)에서 찾은 2개 치아의 가로 경계를 조합하여 중앙의 치아 2개의 경계를 검출하게 된다.Accordingly, the boundary between the two teeth in the center is detected by combining the longitudinal boundary of the two teeth and the horizontal boundary of the two teeth found in FIG. 12 (b).

또한 이와 같은 방법을 반복하여 도 13에 도시한 바와 같이, 상악 치아 중 가운데 6개의 개별적 치아 영역을 검출할 수 있다.
In addition, this method can be repeated to detect six individual tooth regions among the maxillary teeth as shown in FIG. 13.

이하, 미소 분석부(400)의 구성 및 기능에 대하여 서술한다.Hereinafter, the configuration and function of the microanalysis unit 400 will be described.

미소 분석부(400)는 입술 및 치아 분석부(410)를 포함하며, 설계조건에 따라서는 미소훈련모듈, 모니터링모듈 및 그래픽처리모듈을 추가로 포함할 수 있다.
The smile analyzer 400 includes a lip and a tooth analyzer 410, and may further include a smile training module, a monitoring module, and a graphic processing module according to design conditions.

입술 및 치아 분석부(410)는 상순위치 분석모듈, 상순만곡 분석모듈, 상악치아와 하순 관계 분석모듈, 하순의 상악치아 접촉 관계 분석모듈, 치아노출 분석모듈 및 미소대칭성 분석모듈을 포함한다.The lip and tooth analyzing unit 410 includes an upper rank analysis module, an upper lip curve analysis module, a maxillary and lower lip relationship analysis module, a lower maxillary tooth contact relationship analysis module, a tooth exposure analysis module, and a microsymmetry analysis module.

먼저, 입술 및 치아 분석부(410)는 밝은 미소의 중요한 요인인 입술 및 치아의 다양한 위치관계를 분석하는 구성으로서, 미소의 심미성을 분석하는 구성이다.First, the lips and teeth analyzing unit 410 is a component for analyzing various positional relations between the lips and teeth, which are important factors of the bright smile, and analyzes the aesthetics of the smile.

상순위치 분석모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 미소를 지을 때 상순, 치아 및 윗잇몸의 위치관계를 분석하고 평가하는 모듈로서, 도 14에는 상순위치 분석모듈에서 상순의 위치를 분석하는 일예가 나타나 있다.The upper rank analysis module uses the lip line information and the tooth detection information, but analyzes and evaluates the positional relationship between the upper lip, the teeth and the upper gum when smiling, and FIG. 14 analyzes the position of the upper lip in the upper rank analysis module. An example is shown.

상순은 상악 치아가 적절하게 드러나는 위치에 있어야 좋은 미소로서, 상순이 높이 있어 잇몸이 드러나거나, 상순이 너무 아래에 위치하여 상악치아를 덮는 것은 바람직하지 않다.
The upper lip is a good smile when the upper teeth are properly exposed. It is not desirable to expose the gums because the upper lip is high and the upper lip is too low to cover the upper teeth.

본 발명에서는 개별 치아 영역의 윗 경계선과 윗 입술라인과의 픽셀 값 차이로 윗잇몸이 존재 하는지 분석한다.In the present invention, the presence of the upper gum is analyzed by the difference in pixel values between the upper boundary line and the upper lip line of the individual tooth region.

일예로, 입술라인과 가운데 치아의 윗 경계선과의 사이가 3 픽셀 이하이고 치아의 높이가 너비보다 크면 1.5점, 거리가 3픽셀보다 작고 치아 높이가 너비보다 크지 않으면 0.5점, 거리가 3픽셀 보다 크면 입술라인이 올라가 있어 윗잇몸이 많이 보여 1.0점을 부여한다.
For example, if the lip line is 3 pixels or less between the upper boundary of the middle tooth and the tooth is greater than the width, 1.5 points, if the distance is less than 3 pixels, if the tooth height is not greater than the width 0.5 points, the distance is more than 3 pixels If it is big, the lip line is raised so that the upper gums are seen a lot and gives 1.0 points.

상순만곡모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 상순의 만곡을 분석하고 평가하는 모듈로서, 도 15에는 상순만곡 분석모듈에서 상순의 만곡을 분석하는 일예가 나타나 있다.
The upper lip curve module uses lip line information and tooth detection information, and analyzes and evaluates the curve of the upper lip. FIG. 15 shows an example of analyzing the curve of the upper lip in the upper lip curve analysis module.

상순의 만곡도는 입술라인 정보에서 입술의 양 끝점(RCh, LCh)과 상순의 중앙 아래점(CLow)의 관계를 이용하여 분석된다.The upper lip curvature is analyzed using the relationship between the two ends of the lips (RCh, LCh) and the lower middle point (CLow) of the upper lip.

일 예로, 입꼬리 LCh와 RCh가 CLow 보다 높은 위치에 있으면 상순이 가장자리로 갈수록 윗 방향으로 휘어져 심미성이 좋으므로 1.5점, 입꼬리 LCh와 RCh중 하나만 CLow보다 높으면 1.0점, 입꼬리 LCh와 RCh의 CLow 보다 낮은 위치에 있으면 상순이 아랫방향으로 휘어져 있어 심미성이 떨어지므로 0.5점을 부여한다.
For example, if the mouth tail LCh and RCh are higher than CLow, the upper lip is bent upwards toward the edge, so the aesthetics are good, so 1.5 points is higher, and if only one of the mouth tail LCh and RCh is higher than CLow, 1.0 point is lower than CLow of mouth tail LCh and RCh. If it is in the position, the upper lip is bent downward, so that the aesthetics are inferior.

상악치아와 하순 관계 분석모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 상악치아와 하순의 관계를 분석하고 평가하는 모듈로서, 도 16 및 도 17에는 상악치아와 하순 관계 분석모듈에서 상악 치아 형태 및 하순의 관계를 분석하는 일예가 나타나 있다.The maxillary tooth and the lower lip relation analysis module is a module for analyzing and evaluating the relationship between the maxillary teeth and the lower lip using lip line information and tooth detection information. FIGS. 16 and 17 show the maxillary teeth in the maxillary tooth and the lower lip relation analysis module. And an example of analyzing the relationship of the latter.

본 발명에서는 검출된 상악치아의 아래 절단연과 수평축 사이의 각도를 이용하여 상악치아와 하순 관계를 분석한다.In the present invention, the relationship between the maxillary teeth and the lower teeth is analyzed using the angle between the detected cutting edge of the maxillary teeth and the horizontal axis.

일 예로, 검출된 6개 상악치아의 아래 절단연과 수평축 사이의 각도가 10도 이상이어서 치아의 아래 절단연이 윗 방향으로 휘어져 있고 하순 상연과 가지런히 배열되어 있으면 심미성이 높으므로 2.0점, 10도 보다 작으면 상악치아 아래 절단연이 직선에 가까워 심미성이 떨어지므로 1.0점을 부여한다.
For example, if the detected angle between the lower cutting edge and the horizontal axis of the six maxillary teeth is 10 degrees or more and the lower cutting edge of the tooth is bent upward and aligned with the lower upper edge, the aesthetics are high. If smaller, the lower edge of the maxillary tooth is closer to a straight line, so the aesthetics are inferior.

하순의 상악치아 접촉 분석모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 하순의 상악치아 접촉 관계를 분석하고 평가하는 모듈로서, 도 18에는 하순의 상악치아 접촉 분석모듈에서 하순의 상악 치아 접촉 관계를 분석하는 일예가 나타나 있다.The lower maxillary tooth contact analysis module uses lip line information and tooth detection information, but analyzes and evaluates the lower maxillary tooth contact relationship. FIG. 18 shows a lower maxillary tooth contact relationship in the lower maxillary tooth contact analysis module. An example of analyzing is shown.

본 발명에서는 상악치아의 아래 경계와 하순 랜드마크 75번(Clab) 사이의 거리를 이용하여 하순의 상악 치아 접촉 관계를 분석한다.In the present invention, the relationship between the upper maxillary tooth contact is analyzed using the distance between the lower boundary of the maxillary tooth and the lower landmark 75 (Clab).

일 예로, 상악치아와 하순 CLab의 사이가 7 픽셀 이상 많이 벌어져 있으면 심미성이 떨어지므로 0.5점, 상악치아의 중절치의 끝점과 CLab의 사이가 1 픽셀이하이고 중절치의 높이가 넓이보다 작으면 치아가 충분히 드러나지 않은 것으로 판단하여 0.5점, 상악치아의 중절치의 끝점과 CLab의 사이가 1 픽셀이하이고 중절치의 높이가 넓이보다 크거나 또는 상악치아의 중절치의 끝점과 CLab의 사이가 1픽셀보다 크고 5 픽셀 이하이면 치아와 하순이 적절하게 만나서 심미성이 좋으므로 1.0점을 부여한다.
For example, if the gap between the maxillary teeth and the lower CLab is more than 7 pixels wide, the aesthetics will be inferior. 0.5 point, less than 1 pixel between end point of maxillary mid incisor and CLab and greater than the height of mid incisor, or greater than 1 pixel between end point of mid incisor of maxilla and CLab If the tooth and the lower end meet properly, the esthetics are good, so give 1.0 points.

치아노출 분석모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 치아 노출을 분석하고 평가하는 모듈로서, 도 19에는 치아노출 분석모듈에서 미소 지을 때 노출되는 치아를 분석하는 일예가 나타나 있다.The tooth exposure analysis module uses lip line information and tooth detection information, and analyzes and evaluates tooth exposure. FIG. 19 shows an example of analyzing a tooth exposed when smiling in the tooth exposure analysis module.

본 발명에서는 미소시 노출되는 상악치아의 수에 비례하여 심미성이 좋다고판단하여 높은 점수를 부여한다.In the present invention, it is judged that aesthetics are good in proportion to the number of maxillary teeth exposed at the time of micro smile, thereby giving a high score.

일 예로, 가운데 6개의 치아를 검출하고 검출된 치아가 차지하는 수평 방향 영역이 입술 좌우 전체 영역 중에서 얼마나 많은 영역을 차지하는가에 의해 점수를 부여한다. For example, six teeth among the teeth are detected, and a score is given based on how many areas of the entire left and right areas of the lips occupy the horizontal direction occupied by the detected teeth.

입술 가로 구간에 비하여 가운데 6개 상악 치아의 가로 구간이 차지하는 비율(

Figure 112011073233048-pat00035
)이 70% 이하이면 2.0점, 70% ~ 80%이면 1.5점, 80% ~ 90%이면 1.0점, 90% ~ 100%이면 0점을 부여한다.
Percentage of the transverse sections of the six maxillary teeth in the middle
Figure 112011073233048-pat00035
) Is less than 70%, 2.0 points, 70% to 80% 1.5 points, 80% to 90% 1.0 points, 90% to 100% 0 points.

미소대칭성 분석모듈은 입술라인 정보 및 치아검출 정보를 이용하되, 미소대칭성을 분석하고 평가하는 기능을 수행한다.The microsymmetry analysis module uses the lip line information and the tooth detection information, but performs a function of analyzing and evaluating the microsymmetry.

일 예로, 입술라인의 좌우 대칭 정도를 검사하기 위해서, 입술 양 끝점(RCh, LCh)과 상순의 중앙 아래점(CLow), 하순의 중앙 윗점(CLab)의 관계를 다음 식을 이용하여 분석한다.For example, in order to examine the degree of symmetry of the lip line, the relationship between the ends of the lips (RCh, LCh), the lower middle point (CLow) of the upper lip, and the upper middle point (CLab) of the lower lip are analyzed using the following equation.

Figure 112011073233048-pat00036
Figure 112011073233048-pat00036

RCh와 CLow간의 거리(P1)에 Rch와 CLab간의 거리(Q1)의 합을 LCh와 CLow간의 거리(P2)와 LCh와 CLab(Q2)간의 거리의 합으로 나눈 값(X)이 0.9와 1.1 사이 이면 대칭으로 판단하여 1점을 부여한다(미소의 대칭성 = 대칭).The sum of the distance between Rch and CLab (Q 1 ) divided by the distance between Rch and CLow (P 1 ) divided by the sum of the distance between LCh and CLow (P 2 ) and the distance between LCh and CLab (Q 2 ) (X) If it is between 0.9 and 1.1, it is considered as symmetrical and one point is given (microsymmetry = symmetry).

만약 값이 그 외의 값이면 비대칭으로 판단하여 0.5점을 부여한다(미소의 대칭성 = 비대칭).
If the value is any other value, it is judged asymmetrically and 0.5 points are given (microsymmetry = asymmetry).

본 발명의 미소 분석 시스템을 학습 데이터베이스에 사용하지 않은 실험 영상 데이터에 적용하여 정확도를 분석하였다. The accuracy was analyzed by applying the microanalysis system of the present invention to experimental image data not used in the learning database.

도 20에는 치과 병원에서 촬영된 20장의 실험 데이터 영상이 나타나 있으며, 도 21은 도 20의 데이터에 본 발명에 따른 분석 시스템을 적용하여 검출된 얼굴 특징 영상이다.
20 shows 20 experimental data images taken at a dental hospital, and FIG. 21 is a facial feature image detected by applying the analysis system according to the present invention to the data of FIG. 20.

또한 도 22는 도 20의 데이터에 본 발명에 따른 분석 시스템을 적용하여 검출한 입술라인과 개별 치아 영역이다.
22 is a lip line and an individual tooth region detected by applying the analysis system according to the present invention to the data of FIG. 20.

도 23은 본 발명의 일실시예에 따른 미소 분석 시스템을 도 20의 데이터에 적용한 미소 분석 결과와 병원의 평점 결과를 함께 도시한 도면이다.FIG. 23 is a diagram illustrating a microanalysis result of applying a microanalysis system according to an embodiment of the present invention to the data of FIG. 20 and a hospital score result.

병원 평점 결과는 치과 병원의 전문가가 이들 영상에 대해 수작업으로 미소를 평가하여 점수를 부여하였다. Hospital rating results were scored by a professional at the dental clinic manually evaluating smiles on these images.

비교 결과, 치과 병원에서 전문가에 의해 수작업으로 평가한 평점과 미소 분석 시스템의 평가 평점의 평균 오차는 0.77점이었다. As a result of the comparison, the mean error between the manual evaluation by a specialist in the dental clinic and the evaluation rating of the microanalysis system was 0.77.

만점이 9점이므로 평균 오차는 8.6%로서 치과 병원에서 이루어지는 수작업으로 분석한 결과와 제안된 미소 분석 시스템을 이용하여 미소 분석한 것이 큰 차이를 보이지 않았음을 알 수 있다.
Since the perfect score was 9 points, the average error was 8.6%, indicating that the results of manual analysis at the dental clinic and microanalysis using the proposed microanalysis system did not show any significant difference.

설계조건에 따라서, 입술 및 치아 분석부(410)에서 미소의 심미성 분석을 위해 입술 및 치아의 다양한 위치관계 정보를 분석한 후에, 본 발명의 시스템은 미소의 평가 점수 및 코멘트 등을 화면으로 제시하고, 사용자가 미소를 훈련할 수 있는 과정을 제공하기 위하여, 미소훈련모듈, 모니터링모듈 및 그래픽처리모듈 등을 포함할 수도 있다.According to the design conditions, after analyzing the various positional information of the lips and teeth for esthetic analysis of the smile in the lips and teeth analysis unit 410, the system of the present invention displays the evaluation score and comments of the smile on the screen In order to provide a process for the user to train the smile, it may include a smile training module, a monitoring module and a graphic processing module.

먼저, 그래픽처리모듈은 입술 및 치아 분석부(410), 모니터링 모듈 및 미소훈련모듈 등과 연동하여 평가 점수 및 코멘트, 훈련과정 등을 화면에 그래픽으로 처리하여 표시해주는 구성이다.First, the graphic processing module is configured to display an evaluation score, a comment, a training process, etc. graphically on the screen by interworking with the lip and tooth analysis unit 410, a monitoring module, and a smile training module.

설계조건에 따라, 그래픽처리모듈은 본 발명의 시스템을 전반적으로 이용할 수 있는 인터페이스를 제공하도록 구성될 수 있음은 물론이다.
Depending on the design conditions, the graphics processing module can of course be configured to provide an interface that can utilize the system of the present invention as a whole.

미소훈련모듈은 사용자가 미소를 체계적으로 훈련할 수 있도록 훈련프로그램을 제공하는 기능을 수행한다.
The smile training module performs a function of providing a training program so that users can systematically train smiles.

모니터링모듈은 사용자가 제시된 영상과 동일한 미소를 정해진 시간 동안 유지하는 지를 검사하여 그 결과를 그래픽처리모듈에 전송하고, 제시된 훈련을 완료한 경우에 다음 단계로 넘어갈 수 있도록 제어하는 기능을 수행한다.The monitoring module checks whether the user maintains the same smile as the presented image for a predetermined time, transmits the result to the graphic processing module, and controls to move to the next step when the presented training is completed.

또한 훈련 과정의 화면을 추출하여 저장하도록 하여, 사용자가 훈련 후에 저장된 영상을 모니터링 함으로써 자신의 미소 훈련과정을 확인할 수 있도록 하는 기능을 수행한다.In addition, by extracting and storing the screen of the training process, the user monitors the stored image after the training to perform a function to check their smile training process.

설계조건에 따라서, 미소훈련모듈의 기능은 모니터링모듈에 포함되거나 그 반대의 경우도 가능함은 물론이다.
Depending on the design conditions, the function of the micro training module may be included in the monitoring module or vice versa.

한편 상기에서 도 1 내지 도 23을 이용하여 서술한 것은, 본 발명의 주요 사항만을 서술한 것으로, 그 기술적 범위 내에서 다양한 설계가 가능한 만큼, 본 발명이 도 1 내지 도 23의 구성에 한정되는 것이 아님은 자명하다. 1 to 23 describe only the main matters of the present invention, and the present invention is limited to the configuration of FIGS. 1 to 23 as long as various designs are possible within the technical scope. Or not.

100: 영상획득부
200: 얼굴형태모델 학습부
300: 미소특징검출부
310: 입술라인 및 치아 검출부
400: 미소분석부
410: 입술 및 치아 분석부
100: image acquisition unit
200: face shape model learning unit
300: micro feature detection unit
310: lip line and teeth detection unit
400: microanalysis
410: lips and teeth analysis unit

Claims (6)

카메라에 실시간으로 입력되는 영상에서 미소학습 데이터베이스를 이용하여 입술라인 및 치아영역을 검출한 후에 개별 치아 영역을 검출하되,
미소학습 데이터베이스는,
얼굴형태 정보를 포함하는 형태모델 학습데이터베이스와, 얼굴 주요 요소의 윤곽에 부여된 복수 개의 랜드마크의 위치변화정보를 포함하는 프로파일모델 학습데이터베이스를 포함하고,
개별 치아 영역은,
치아 영역을 가로방향으로 2차 미분한 후에 열의 평균 밝기를 이용하여 검출한 세로 경계와, 치아 영역을 세로방향으로 2차 미분한 후에 행의 평균 밝기를 이용하여 검출한 가로 경계를 이용하여 검출하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템.
After detecting the lip line and the tooth region using the micro-learning database in the image input to the camera in real time, individual tooth regions are detected.
The smile learning database,
A shape model training database including face shape information, and a profile model training database including position change information of a plurality of landmarks attached to an outline of a face main element,
Individual tooth areas,
Detecting using the vertical boundary detected after the second derivative of the tooth region in the horizontal direction using the average brightness of the column, and using the horizontal boundary detected using the average brightness of the row after the second derivative of the tooth region in the longitudinal direction Smile analysis system for smile training, characterized in that.
삭제delete 제 1 항에 있어서,
상기 검출된 개별 치아 영역을 이용하여 상순의 위치를 분석하되,
상기 개별 치아 영역의 윗 경계와 입술라인의 픽셀값 차이를 이용하여 분석하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템.
The method of claim 1,
Analyze the position of the upper lip using the detected individual tooth regions,
And analyzing the difference between the upper boundary of the individual tooth region and the pixel value of the lip line.
제 1 항에 있어서,
상기 검출된 개별 치아 영역을 이용하여 상악 치아와 하순의 관계를 분석하되,
상기 개별 치아 영역의 아래 절단연과 수평축 사이의 각도를 이용하여 분석하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템.
The method of claim 1,
Analyze the relationship between the maxillary teeth and the lower teeth using the detected individual tooth regions,
And analyze using the angle between the lower cutting edge and the horizontal axis of the individual tooth region.
제 1 항에 있어서,
상기 검출된 개별 치아 영역을 이용하여 상악 치아와 하순의 관계를 분석하되,
상기 개별 치아 영역의 경계와 아래 입술라인 중앙점과의 픽셀값 차이를 이용하여 분석하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템.
The method of claim 1,
Analyze the relationship between the maxillary teeth and the lower teeth using the detected individual tooth regions,
And a pixel value difference between the boundary of the individual tooth region and the center point of the lower lip line.
제 1 항에 있어서,
상기 검출된 개별 치아 영역을 이용하여 미소시 노출되는 치아를 분석하되,
상기 개별 치아 영역의 수평 방향 길이와 입술 좌우 전체 길이와의 비율을 이용하여 분석하는 것을 특징으로 하는, 미소 훈련을 위한 미소 분석 시스템.
The method of claim 1,
Analyzing the teeth exposed during the smile using the detected individual tooth area,
And analyzing by using the ratio of the horizontal length of the individual tooth region to the total length of the left and right lips.
KR1020110094873A 2011-09-20 2011-09-20 A smile analysis system for smile self-training KR101145672B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110094873A KR101145672B1 (en) 2011-09-20 2011-09-20 A smile analysis system for smile self-training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110094873A KR101145672B1 (en) 2011-09-20 2011-09-20 A smile analysis system for smile self-training

Publications (1)

Publication Number Publication Date
KR101145672B1 true KR101145672B1 (en) 2012-05-24

Family

ID=46272028

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110094873A KR101145672B1 (en) 2011-09-20 2011-09-20 A smile analysis system for smile self-training

Country Status (1)

Country Link
KR (1) KR101145672B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017018152A (en) * 2015-07-07 2017-01-26 Juki株式会社 Color measuring device, color measuring method and program
KR101779840B1 (en) * 2016-11-25 2017-09-19 가톨릭대학교 산학협력단 Apparatus and method for analyzing face based on smile detection
KR20180138379A (en) 2017-06-21 2018-12-31 한국광기술원 Device and method for analyzing morphological characteristics of tooth
WO2023182755A1 (en) * 2022-03-22 2023-09-28 주식회사 레이 Method of producing 3-dimensional face scan data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100480781B1 (en) 2002-12-28 2005-04-06 삼성전자주식회사 Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
JP2005234686A (en) 2004-02-17 2005-09-02 Fuji Xerox Co Ltd Expression recognition device, expression recognition method and program
JP2008264367A (en) 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus
KR20100066866A (en) * 2008-12-10 2010-06-18 광주과학기술원 Portable facial expression training system and methods thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100480781B1 (en) 2002-12-28 2005-04-06 삼성전자주식회사 Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
JP2005234686A (en) 2004-02-17 2005-09-02 Fuji Xerox Co Ltd Expression recognition device, expression recognition method and program
JP2008264367A (en) 2007-04-24 2008-11-06 Nintendo Co Ltd Training program and training apparatus
KR20100066866A (en) * 2008-12-10 2010-06-18 광주과학기술원 Portable facial expression training system and methods thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017018152A (en) * 2015-07-07 2017-01-26 Juki株式会社 Color measuring device, color measuring method and program
KR101779840B1 (en) * 2016-11-25 2017-09-19 가톨릭대학교 산학협력단 Apparatus and method for analyzing face based on smile detection
KR20180138379A (en) 2017-06-21 2018-12-31 한국광기술원 Device and method for analyzing morphological characteristics of tooth
WO2023182755A1 (en) * 2022-03-22 2023-09-28 주식회사 레이 Method of producing 3-dimensional face scan data

Similar Documents

Publication Publication Date Title
KR102339915B1 (en) Systems and methods for guiding a user to take a selfie
KR102045695B1 (en) Facial image processing method and apparatus, and storage medium
CN108701216B (en) Face recognition method and device and intelligent terminal
US20140270374A1 (en) Systems, Methods, and Software for Detecting an Object in an Image
CN105740780A (en) Method and device for human face in-vivo detection
JP2005242567A (en) Movement evaluation device and method
CN110546644A (en) Recognition device, recognition method, and recognition program
KR101145672B1 (en) A smile analysis system for smile self-training
WO2021143667A1 (en) Facial expression analysis method and system, and facial expression-based satisfaction analysis method and system
CN110705467A (en) Facial expression recognition method, system, device and storage medium
CN110945537A (en) Training device, recognition device, training method, recognition method, and program
KR20100011280A (en) Method and apparatus of recognizing detailed facial expression using facial expression information amplification
US10803677B2 (en) Method and system of automated facial morphing for eyebrow hair and face color detection
CN115205933A (en) Facial expression recognition method, device, equipment and readable storage medium
KR20120084517A (en) A real-time smile training system
KR102468648B1 (en) Method for calculating heart rate using rPPG signal of serial image and system thereof
CN111539911A (en) Mouth breathing face recognition method, device and storage medium
CN116630599A (en) Method for generating post-orthodontic predicted pictures
JP2007048232A (en) Information processing device, information processing method, and computer program
CN113989269B (en) Traditional Chinese medicine tongue image tooth trace automatic detection method based on convolutional neural network multi-scale feature fusion
KR101787255B1 (en) Facial expression recognition method based on ratio of facial ladnmark's distance
Lakshmi et al. Real-Time Hand Gesture Recognition for Improved Communication with Deaf and Hard of Hearing Individuals
EP4163867A1 (en) Decision program, decision device, and decision method
JP6467817B2 (en) Image processing apparatus, image processing method, and program
CN111353354B (en) Human body stress information identification method and device and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160519

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170602

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180420

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee