KR102501665B1 - Lip motion information analysis method and device - Google Patents

Lip motion information analysis method and device Download PDF

Info

Publication number
KR102501665B1
KR102501665B1 KR1020210019906A KR20210019906A KR102501665B1 KR 102501665 B1 KR102501665 B1 KR 102501665B1 KR 1020210019906 A KR1020210019906 A KR 1020210019906A KR 20210019906 A KR20210019906 A KR 20210019906A KR 102501665 B1 KR102501665 B1 KR 102501665B1
Authority
KR
South Korea
Prior art keywords
lip
landmark
movement
motion information
lower lip
Prior art date
Application number
KR1020210019906A
Other languages
Korean (ko)
Other versions
KR20220116714A (en
Inventor
한상선
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210019906A priority Critical patent/KR102501665B1/en
Priority to PCT/KR2022/001860 priority patent/WO2022173180A1/en
Publication of KR20220116714A publication Critical patent/KR20220116714A/en
Application granted granted Critical
Publication of KR102501665B1 publication Critical patent/KR102501665B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/45For evaluating or diagnosing the musculoskeletal system or teeth
    • A61B5/4538Evaluating a particular part of the muscoloskeletal system or a particular medical condition
    • A61B5/4542Evaluating the mouth, e.g. the jaw
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis

Abstract

본 발명은 입술 움직임 정보 분석 방법 및 장치에 관한 것으로, 본 발명에 따른 입술 움직임 정보 분석 방법은 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 입술 움직임 트래킹 단계, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계를 포함한다. 본 발명에 의하면 입을 벌리거나 다무는 동작을 취할 때 입술 움직임 정보를 시각화하여 표시할 수 있으며, 입술 최대 이동폭을 정량화하여 함께 표시함으로써 환자의 입술 움직임 정보를 객관적으로 분석한 결과를 제공할 수 있다.The present invention relates to a method and apparatus for analyzing lip movement information. The method for analyzing lip movement information according to the present invention tracks an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographed image. A lip movement tracking step, and visualizing lip movement information based on data obtained by tracking the upper lip landmark and the lower lip landmark. According to the present invention, lip movement information can be visualized and displayed when opening or closing the mouth, and by quantifying and displaying the maximum movement range of the lips, objectively analyzing the patient's lip movement information can be provided. .

Description

입술 움직임 정보 분석 방법 및 장치{Lip motion information analysis method and device}Lip motion information analysis method and device {Lip motion information analysis method and device}

본 발명은 입술 움직임 정보 분석 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for analyzing lip movement information.

턱관절은 아래턱뼈와 머리뼈가 만나 이루는 관절로, 음식을 씹거나 말을 할 때 핵심적인 역할을 한다. 턱관절과 근육에 문제가 생기는 것을 턱관절 질환이라고 한다.The temporomandibular joint is a joint formed by the meeting of the lower jawbone and the skull bone, and plays a key role when chewing food or speaking. Problems with the jaw joint and muscles are called temporomandibular joint disease.

턱관절 질환의 정확한 진단을 위해 X-ray, MRI, CT 촬영, 초음파 영상 촬영 등이 이루어진다. 또한 턱 운동의 제한 정도를 알아보기 위해 입을 최대한 벌려 개구 범위를 측정하거나, 입을 벌리거나 다물 때 턱 관절에서 발생하는 소리를 검사하기도 한다.For accurate diagnosis of temporomandibular joint disease, X-ray, MRI, CT scan, and ultrasound imaging are performed. In addition, to find out the degree of restriction of jaw movement, the mouth opening range is measured by opening the mouth as much as possible, or the sound generated by the jaw joint when the mouth is opened or closed is examined.

턱관절에 질환이 생긴 경우 턱을 좌우로 비틀며 입을 벌리거나 다무는 증상을 보일 수 있다. 종래에는 환자의 입을 벌리거나 다무는 동작을 임상의가 직접 관찰하여 평가하는 방식으로 검사가 이루어져서, 임상의에 따라 평가 결과가 달라질 수 있었다.If you have a disease in the temporomandibular joint, you may show symptoms of twisting your jaw from side to side and opening or closing your mouth. Conventionally, an examination is performed in such a way that a clinician directly observes and evaluates a patient's mouth opening or closing motion, and evaluation results may vary depending on the clinician.

한국공개특허 제2017-0052910호(공개일자: 2017-05-15)Korean Patent Publication No. 2017-0052910 (published date: 2017-05-15)

따라서 본 발명이 해결하고자 하는 기술적 과제는 턱관절 질환 진단을 위한 환자의 입술 움직임 정보를 객관적으로 분석할 수 있도록 지원하는 입술 움직임 정보 분석 방법 및 장치를 제공하는 것이다.Therefore, the technical problem to be solved by the present invention is to provide a lip movement information analysis method and apparatus that support the objective analysis of patient's lip movement information for diagnosing temporomandibular joint disease.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 입술 움직임 정보 분석 방법은 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 입술 움직임 트래킹 단계, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계를 포함한다.A lip movement information analysis method according to the present invention for solving the above technical problem includes a lip movement tracking step of tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographed image, and and visualizing lip motion information based on data obtained by tracking the upper lip landmark and the lower lip landmark.

상기 방법은, 상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하는 단계, 그리고 상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 미리 정해진 방향으로 정렬하는 단계를 더 포함할 수 있다.The method may further include recognizing a plurality of predetermined landmarks in the face photographing image, and aligning face inclinations in a predetermined direction using at least some of the plurality of predetermined landmarks. .

상기 시각화된 입술 움직임 정보는, 상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함할 수 있다.The visualized lip motion information may include a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing a movement trajectory of the upper lip landmark with the lower lip landmark as a reference point. can

상기 그래프는, 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현할 수 있다.In the graph, a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark of the lower lip move in a direction closer to each other may be expressed in different colors or shapes.

상기 시각화된 입술 움직임 정보는, 상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함할 수 있다.The visualized lip motion information may include a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.

컴퓨터에 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.It may include a computer-readable recording medium on which a program for executing the method is recorded on a computer.

상기한 기술적 과제를 해결하기 위한 본 발명에 따른 입술 움직임 정보 분석 장치는 얼굴 촬영 영상을 획득하는 영상 획득부, 상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하고, 상기 인식된 복수의 랜드마크 중에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 영상 처리부, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 시각화부를 포함한다.An apparatus for analyzing lip movement information according to the present invention for solving the above technical problem is an image acquisition unit that acquires a photographed face image, recognizes a plurality of predetermined landmarks in the photographed face image, and recognizes the plurality of landmarks. An image processing unit tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip, and visualizing lip motion information based on data tracking the upper lip landmark and the lower lip landmark. It includes a visualization unit that

본 발명에 의하면 입을 벌리거나 다무는 동작을 취할 때 입술 움직임 정보를 시각화하여 표시할 수 있으며, 입술 최대 이동폭을 정량화하여 함께 표시함으로써 환자의 입술 움직임 정보를 객관적으로 분석한 결과를 제공할 수 있다.According to the present invention, lip movement information can be visualized and displayed when opening or closing the mouth, and by quantifying and displaying the maximum movement range of the lips, objectively analyzing the patient's lip movement information can be provided. .

도 1은 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 입술 움직임 정보를 시각화하여 표시하는 화면을 예시한 것이다.
도 3은 본 발명에 따른 가로 최대 이동폭과 세로 최대 이동폭을 설명하기 위해 제공되는 도면이다.
도 4는 본 발명에 따른 입술 움직임 정보를 시각화하여 표시하는 화면의 다른 예를 예시한 것이다.
도 5는 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 동작 흐름도이다.
1 is a block diagram of an apparatus for analyzing lip motion information according to an embodiment of the present invention.
2 illustrates a screen for visualizing and displaying lip movement information according to an embodiment of the present invention.
3 is a diagram provided to explain the maximum horizontal movement width and the maximum vertical movement width according to the present invention.
4 illustrates another example of a screen for visualizing and displaying lip movement information according to the present invention.
5 is an operation flowchart of an apparatus for analyzing lip motion information according to an embodiment of the present invention.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention.

도 1은 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 구성도이다.1 is a block diagram of an apparatus for analyzing lip motion information according to an embodiment of the present invention.

도 1을 참고하면, 본 발명에 따른 입술 움직임 정보 분석 장치는 영상 획득부(110), 영상 처리부(120), 시각화부(130), 표시부(140), 저장부(150) 및 제어부(160)를 포함할 수 있다.Referring to FIG. 1 , the apparatus for analyzing lip motion information according to the present invention includes an image acquisition unit 110, an image processing unit 120, a visualization unit 130, a display unit 140, a storage unit 150, and a control unit 160. can include

영상 획득부(110)는 입을 벌리거나 다무는 동작을 취하고 있는 사람의 얼굴을 촬영한 동영상(이하 '얼굴 촬영 영상'이라 함)을 획득할 수 있다. 영상 획득부(110)는 CCD(Charge Coupled Device) 카메라나 CMOS(complementary metal-oxide semiconductor) 카메라 등으로 구현할 수 있다.The image acquisition unit 110 may obtain a video (hereinafter referred to as 'face photographing image') of a face of a person taking a motion of opening or closing the mouth. The image acquisition unit 110 may be implemented with a charge coupled device (CCD) camera or a complementary metal-oxide semiconductor (CMOS) camera.

영상 처리부(120)는 얼굴 촬영 영상에서 얼굴 검출, 랜드마크 인식, 얼굴 기울기 정렬, 입술 움직임 트래킹 등을 수행할 수 있다.The image processing unit 120 may perform face detection, landmark recognition, face tilt alignment, lip movement tracking, and the like in a face photographed image.

영상 처리부(120)는 얼굴 촬영 영상에서 사람 얼굴 영역을 검출할 수 있다. 얼굴 촬영 영상에서 사람 얼굴 영역을 검출하는 다양한 방법, 예컨대 대칭적인 눈의 형태와 그 아래에 있는 코와 입들에 대한 특징치 들을 추출한 후 영상에서 이에 대한 검출을 시도하거나, 표준 얼굴 패턴에 대한 정보를 사전에 추출한 후 입력 영상과 사전에 정해 놓은 템플레이트(template)와의 상관관계를 추출함으로써 사람 얼굴을 검출하는 등의 방법이 알려져 있다. 물론 여기서 언급한 것 외에도 다양한 방법을 적용하여 영상 처리부(120)에서 얼굴 영역을 검출하도록 구현할 수 있다.The image processing unit 120 may detect a human face region from a photographed face image. Various methods of detecting the human face area in a face-photographed image, such as extracting feature values for the symmetrical eye shape and the nose and mouth below it, attempting to detect them in the image, or extracting information on standard facial patterns A method of detecting a human face by extracting in advance and then extracting a correlation between an input image and a predefined template is known. Of course, various methods other than those mentioned here may be applied to detect the face region in the image processing unit 120 .

영상 처리부(120)는 얼굴 촬영 영상에서 검출된 얼굴 영역에서 미리 정해진 복수의 랜드마크(landmark)를 인식할 수 있다. 얼굴 촬영 영상에서 검출되는 랜드마크는 실시예에 따라 달라질 수 있다.The image processing unit 120 may recognize a plurality of predetermined landmarks in the face area detected in the face photographing image. Landmarks detected in a face photographing image may vary according to embodiments.

영상 처리부(120)는 인식된 복수의 랜드마크 중 일부를 이용하여, 얼굴 촬영 영상에서 검출된 얼굴의 기울기를 미리 정해진 방향으로 정렬할 수 있다. 예를 들어 양 눈의 내안각을 연결하는 선분이 수평이 되게 사람 얼굴의 기울기를 정렬할 수 있다. 물론 양 눈의 외안각을 얼굴 기울기 정렬에 이용하거나, 또는 눈이 아닌 다른 부위에서 인식되는 랜드마크를 이용하여 얼굴 기울기 정렬을 수행하는 것도 가능하다.The image processing unit 120 may use some of the plurality of recognized landmarks to align the inclination of the face detected in the face photographing image in a predetermined direction. For example, the inclination of a person's face may be aligned such that a line connecting the inner canthus of both eyes is horizontal. Of course, it is also possible to perform face tilt alignment by using the lateral canthus of both eyes for face tilt alignment or by using a landmark recognized in a part other than the eyes.

영상 처리부(120)는 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹(tracking)할 수 있다. 윗 입술 랜드마크와 아래 입술 랜드마크는 윗 입술 영역과 아래 입술 영역의 중심으로 정해질 수 있다. 실시예에 따라서 윗 입술 랜드마크와 아래 입술 랜드마크는 윗 입술 중앙 최상단과 아래 입술 중앙 최하단으로 정해질 수도 있다. 물론 윗 입술 영역과 아래 입술 영역의 다른 부분으로 윗 입술 랜드마크와 아래 입술 랜드마크를 정하는 것도 가능하다.The image processing unit 120 may track an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in the face photographing image. The upper lip landmark and the lower lip landmark may be determined as centers of the upper lip area and the lower lip area. According to embodiments, the upper lip landmark and the lower lip landmark may be determined as the uppermost center of the upper lip and the lowermost center of the lower lip. Of course, it is also possible to set the upper lip landmark and the lower lip landmark to different parts of the upper lip area and the lower lip area.

시각화부(130)는 영상 처리부(120)에서 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하여 표시부(140)에 표시할 수 있다.The visualization unit 130 may visualize lip motion information based on data obtained by tracking upper lip landmarks and lower lip landmarks in the image processing unit 120 and display the visualized lip motion information on the display unit 140 .

도 2는 본 발명의 일 실시예에 따른 입술 움직임 정보를 시각화하여 표시하는 화면을 예시한 것이다.2 illustrates a screen for visualizing and displaying lip movement information according to an embodiment of the present invention.

도 2를 참고하면, 입술 움직임 정보 시각화 표시 화면은 얼굴 촬영 영상 표시 영역(10), 그래프 표시 영역(20) 및 최대 이동폭 표시 영역(30)을 포함할 수 있다. 화면 모드에 따라서 그래프 표시 영역(20)만 화면에 표시하는 것도 가능하다.Referring to FIG. 2 , the lip motion information visualization display screen may include a face capture image display area 10 , a graph display area 20 and a maximum movement range display area 30 . Depending on the screen mode, it is also possible to display only the graph display area 20 on the screen.

얼굴 촬영 영상 표시 영역(10)은 입을 벌리고 다무는 동작을 촬영한 얼굴 촬영 영상을 실시간으로 또는 녹화 후 재생할 수 있다. 얼굴에서 인식된 랜드마크 중 적어도 일부가 얼굴 촬영 영상에 함께 표시될 수 있다. 도 2에서는 얼굴 기울기 정렬에 이용하는 양 눈의 내안각에 대응하는 랜드마크와, 입술 움직임 트래킹에 이용하는 윗 입술 랜드마크와 아래 입술 랜드마크가 함께 녹색 점으로 표시된 예를 나타낸다.The face photographing image display area 10 may reproduce a face photographing image in which a mouth is opened and closed in real time or after being recorded. At least some of the landmarks recognized from the face may be displayed together with the face photographing image. 2 shows an example in which a landmark corresponding to the inner canthus of both eyes used for face tilt alignment, an upper lip landmark and a lower lip landmark used for lip movement tracking are displayed as green dots.

그래프 표시 영역(20)은 윗 입술 랜드마크 또는 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프가 표시될 수 있다. 도 2에서는 윗 입술 랜드마크의 위치를 기준점(0,0)으로 아래 입술 랜드마크에 해당하는 점(23)의 이동 괘적을 그래프(21, 22)로 표시한 예이다.In the graph display area 20, a graph representing the movement trajectory of the landmark of the upper lip or the landmark of the lower lip may be displayed. 2 shows an example in which the position of the landmark of the upper lip is the reference point (0, 0) and the trajectory of movement of the point 23 corresponding to the landmark of the lower lip is displayed as graphs 21 and 22.

윗 입술 랜드마크와 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간에 대해서, 그래프(21, 22)의 색상 또는 모양을 다르게 표현할 수 있다.Different colors or shapes of the graphs 21 and 22 may be expressed for a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark moves in a direction closer to each other.

입을 다문 상태에서 벌리면 점(23)이 기준점(0.0)에서 아래로 이동하면서 멀어지게 된다. 도 2에서 붉은색으로 표시된 그래프(21) 부분은 입을 벌리는 동작을 취할 때 아래 입술 랜드마크의 이동 궤적을 나타낸 것이다.When the mouth is opened in a closed state, the point 23 moves downward from the reference point (0.0) and moves away from it. The portion of the graph 21 indicated in red in FIG. 2 shows the movement trajectory of the landmark of the lower lip when the mouth is opened.

한편 입을 벌렸다가 다물면 점(23)이 위로 이동하면서 기준점(0,0)으로 가까와지면서 복귀한다. 도 2에서 파란색으로 표시된 그래프(22) 부분은 입을 다무는 동작을 취할 때 아래 입술 랜드마크의 이동 궤적을 나타낸 것이다.On the other hand, if the mouth is opened and then closed, the point (23) moves upward and returns while approaching the reference point (0,0). The portion of the graph 22 indicated in blue in FIG. 2 shows the movement trajectory of the landmark of the lower lip when the mouth is closed.

실시예에 따라서 색상 대신에 선의 굵기를 다르게 하거나, 또는 선의 모양(실선, 점선 등)을 다르게 표현할 수 있다. 이에 의해 해당 그래프 부분이 입을 다무는 구간에 해당하는지 또는 입을 벌리는 구간에 해당하는지 쉽게 구분할 수 있다.Depending on the embodiment, the thickness of the line may be changed instead of the color, or the shape of the line (solid line, dotted line, etc.) may be expressed differently. Accordingly, it is possible to easily distinguish whether a corresponding graph portion corresponds to a closed mouth section or an open mouth section.

최대 이동폭 표시 영역(30)은 윗 입술 랜드마크 또는 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 표시할 수 있다. 여기서 가로 최대 이동폭은 윗 입술 랜드마크(또는 아래 입술 랜드마크)를 기준으로 아래 입술 랜드마크(또는 윗 입술 랜드마크)가 가로 축 방향(horizontal axis direction)으로 떨어진 최대 거리를 나타낸다. 그리고 세로 최대 이동폭은 윗 입술 랜드마크(또는 아래 입술 랜드마크)를 기준으로 아래 입술 랜드마크(또는 윗 입술 랜드마크)가 세로 축 방향(vertical axis direction)으로 떨어진 최대 거리를 나타낸다.The maximum movement width display area 30 may display the maximum horizontal movement width and the maximum vertical movement width of the upper lip landmark or the lower lip landmark. Here, the horizontal maximum movement width represents the maximum distance from the upper lip landmark (or lower lip landmark) in a horizontal axis direction to the lower lip landmark (or upper lip landmark). Further, the vertical maximum movement width represents the maximum distance from the upper lip landmark (or lower lip landmark) in a vertical axis direction to the lower lip landmark (or upper lip landmark).

도 2에서는 아래 입술 랜드마크에 대응하는 점(23)이 윗 입술 랜드마크와 가로 축 방향으로 최대 0.7cm, 세로 축 방향으로 최대 2.5cm 떨어진 것을 나타내고 있다. 도 2에서는 'cm' 단위로 가로 최대 이동폭과 세로 최대 이동폭을 나타내고 있으나, 실시예에 따라 표시 단위는 달라질 수 있다.2 shows that the point 23 corresponding to the landmark of the lower lip is separated from the landmark of the upper lip by a maximum of 0.7 cm in the horizontal axis direction and by a maximum of 2.5 cm in the vertical axis direction. In FIG. 2 , the maximum horizontal movement width and the maximum vertical movement width are shown in 'cm' units, but the display unit may vary depending on the embodiment.

도 3은 본 발명에 따른 가로 최대 이동폭과 세로 최대 이동폭을 설명하기 위해 제공되는 도면이다.3 is a diagram provided to explain the maximum horizontal movement width and the maximum vertical movement width according to the present invention.

도 3을 참고하면, 점(23)의 이동 궤적에 해당하는 그래프를 모두 포함하는 사각형(24)이 정의될 수 있다. 도 2에서 가로 최대 이동폭은 사각형(24)의 가로 폭(A)에 해당하고, 도 2에서 세로 최대 이동폭은 사각형(24)의 세로 폭(B)에 해당한다.Referring to FIG. 3 , a rectangle 24 including all graphs corresponding to the movement trajectory of the point 23 may be defined. In FIG. 2 , the maximum horizontal movement width corresponds to the horizontal width A of the rectangle 24 , and the maximum vertical movement width corresponds to the vertical width B of the rectangle 24 in FIG. 2 .

도 4는 본 발명에 따른 입술 움직임 정보를 시각화하여 표시하는 화면의 다른 예를 예시한 것이다.4 illustrates another example of a screen for visualizing and displaying lip movement information according to the present invention.

턱관절에 질환이 없는 경우 입을 좌우로 비틀지 않고 크게 벌렸다가 다물 수 있다. 도 4에 예시한 것과 같이 가로 축 방향으로 비교적 적은 범위로 움직이고, 세로 축 방향으로 비교적 큰 범위로 움직이는 이동 궤적을 보일 수 있다. 도 4에서는 가로 최대 이동폭과 세로 최대 이동폭이 각각 0.3cm, 4.6cm인 예를 나타내고 있다.If there is no disease in the temporomandibular joint, you can open and close your mouth wide without twisting it from side to side. As illustrated in FIG. 4 , a movement trajectory moving in a relatively small range in the horizontal axis direction and moving in a relatively large range in the vertical axis direction may be shown. 4 shows an example in which the maximum horizontal movement width and the maximum vertical movement width are 0.3 cm and 4.6 cm, respectively.

한편 일부 턱관절 질환이 있는 경우 입을 좌우로 비틀거나, 크게 벌리기 힘든 증상을 나타낼 수 있다. 앞서 도 3에 예시한 것과 같이 가로 축 방향으로 비교적 큰 범위로 움직이고, 세로 축 방향으로 비교적 적은 범위로 움직이는 이동 궤적을 보일 수 있다. 도 3에서는 가로 최대 이동폭과 세로 최대 이동폭이 각각 0.3cm, 4.6cm인 예를 나타내고 있다.On the other hand, if you have some temporomandibular joint diseases, you may have symptoms that make it difficult to twist your mouth from side to side or open it wide. As illustrated in FIG. 3 above, a movement trajectory moving in a relatively large range in the horizontal axis direction and moving in a relatively small range in the vertical axis direction may be shown. 3 shows an example in which the maximum horizontal movement width and the maximum vertical movement width are 0.3 cm and 4.6 cm, respectively.

표시부(140)는 LCD 패널이나 LED 패널 등 디스플레이 수단을 구비한 모니터 장치 등으로 구현할 수 있다. 표시부(140)는 입술 움직임 정보 분석 장치의 동작과 관련된 각종 정보 및 데이터를 화면에 표시할 수 있다.The display unit 140 may be implemented as a monitor device having display means such as an LCD panel or an LED panel. The display unit 140 may display various information and data related to the operation of the lip motion information analysis device on the screen.

저장부(150)는 입술 움직임 정보 분석 장치의 동작과 관련된 각종 정보 및 데이터를 저장할 수 있다. 구체적으로 저장부(150)는 영상 획득부(110)에서 획득된 얼굴 촬영 영상, 얼굴 촬영 영상에서 랜드마크 자동 인식에 이용되는 데이터, 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터, 입술 움직임 정보 시각화 데이터 등을 저장할 수 있다.The storage unit 150 may store various types of information and data related to the operation of the lip motion information analysis device. Specifically, the storage unit 150 includes the face photographed image acquired by the image acquisition unit 110, data used for landmark automatic recognition in the face photographed image, data tracking upper lip landmarks and lower lip landmarks, and lip movements. It can store information visualization data, etc.

제어부(160)는 본 발명에 따른 입술 움직임 정보 분석 장치의 전체적인 동작을 제어한다. 제어부(160)는 사용자 요청에 따라 얼굴 촬영 영상 표시 영역(10), 그래프 표시 영역(20) 및 최대 이동폭 표시 영역(30)를 모두 화면에 표시하거나, 그 중 어느 하나를 선택적으로 화면에 표시할 수도 있다.The controller 160 controls the overall operation of the lip motion information analysis device according to the present invention. The controller 160 displays all of the face capture image display area 10, the graph display area 20, and the maximum movement width display area 30 on the screen according to the user's request, or selectively displays any one of them on the screen. You may.

도 5는 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 동작 흐름도이다.5 is an operation flowchart of an apparatus for analyzing lip motion information according to an embodiment of the present invention.

도 1 및 도 5를 참고하면, 먼저 영상 획득부(110)는 입을 벌리거나 다무는 동작을 취하는 모습을 촬영한 얼굴 촬영 영상을 획득할 수 있다(S510).Referring to FIGS. 1 and 5 , first, the image capture unit 110 may obtain a face photographing image in which a mouth is opened or closed (S510).

다음으로 영상 처리부(120)는 얼굴 촬영 영상에서 사람 얼굴 영역을 검출할 수 있다(S520).Next, the image processing unit 120 may detect a human face region from the face photographing image (S520).

그리고 영상 처리부(120)는 얼굴 촬영 영상에서 검출된 얼굴 영역에서 미리 정해진 복수의 랜드마크를 인식할 수 있다(S530). 단계(S530)에서 얼굴 기울기 정렬에 사용하기 위한 랜드마크, 윗 입술 랜드마크, 아래 입술 랜드마크를 인식할 수 있다. 사용자로부터 단계(S530)에서 인식된 랜드마크들 중에서 얼굴 기울기 정렬에 사용하기 위한 랜드마크, 윗 입술 랜드마크, 아래 입술 랜드마크 등을 선택받을 수도 있다.Also, the image processing unit 120 may recognize a plurality of predetermined landmarks in the face area detected in the face photographing image (S530). In step S530, a landmark for use in face tilt alignment, an upper lip landmark, and a lower lip landmark may be recognized. A landmark, an upper lip landmark, a lower lip landmark, and the like to be used for face tilt alignment may be selected from the user among the landmarks recognized in step S530.

이후 영상 처리부(120)는 단계(S530)에서 인식된 복수의 랜드마크 중 일부를 이용하여, 얼굴 촬영 영상에서 검출된 얼굴의 기울기를 미리 정해진 방향으로 정렬할 수 있다(S540).Thereafter, the image processing unit 120 may use some of the plurality of landmarks recognized in step S530 to align the slope of the face detected in the face photographing image in a predetermined direction (S540).

한편 영상 처리부(120)는 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹할 수 있다(S550). 단계(S540)는 단계(S550)를 수행하는 동안 병렬로 수행될 수 있다.Meanwhile, the image processing unit 120 may track an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in the face photographing image (S550). Step S540 may be performed in parallel while performing step S550.

다음으로 시각화부(130)는 영상 처리부(120)에서 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하여 표시부(140)에 표시할 수 있다(S560).Next, the visualization unit 130 may visualize the lip motion information based on the data of the upper lip landmark and the lower lip landmark tracking by the image processing unit 120 and display it on the display unit 140 (S560).

마지막으로 저장부(150)는 입술 움직임 정보 시각화 분석 데이터를 저장할 수 있다(S570). 입술 움직임 정보 시각화 분석 데이터는 입술 랜드마크의 이동 궤적이나 최대 이동폭 등 단계(S560)에서 시각화하여 표시한 입술 움직임 정보 등을 포함할 수 있다.Finally, the storage unit 150 may store lip movement information visualization analysis data (S570). The lip movement information visualization analysis data may include lip movement information visualized and displayed in step S560, such as a movement trajectory of a lip landmark or a maximum movement width.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

Claims (11)

얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 입술 움직임 트래킹 단계, 그리고
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계
를 포함하고,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함하는 입술 움직임 정보 분석 방법.
A lip movement tracking step of tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographing image, and
Visualizing lip motion information based on data tracking the upper lip landmark and the lower lip landmark
including,
The visualized lip movement information,
The method of analyzing lip motion information comprising a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing the movement trajectory of the upper lip landmark with the lower lip landmark as a reference point.
제 1 항에서,
상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하는 단계, 그리고
상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 미리 정해진 방향으로 정렬하는 단계
를 더 포함하는 입술 움직임 정보 분석 방법.
In claim 1,
recognizing a plurality of predetermined landmarks in the face photographing image; and
Aligning the facial inclination in a predetermined direction using at least some of the plurality of predetermined landmarks
Lip movement information analysis method further comprising a.
삭제delete 제 1 항에서,
상기 그래프는,
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현되는 입술 움직임 정보 분석 방법.
In claim 1,
The graph is
The lip movement information analysis method of claim 1 , wherein a color or shape of a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark moves in a direction closer to each other are expressed differently.
제 1 항에서,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함하는 입술 움직임 정보 분석 방법.
In claim 1,
The visualized lip movement information,
Lip motion information analysis method comprising a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.
컴퓨터에 제1항, 제2항, 제4항 및 제5항 중 어느 한 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
A computer-readable recording medium recording a program for executing any one of the methods of claims 1, 2, 4, and 5 on a computer.
얼굴 촬영 영상을 획득하는 영상 획득부,
상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하고, 상기 인식된 복수의 랜드마크 중에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 영상 처리부, 그리고
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 시각화부
를 포함하고,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함하는 입술 움직임 정보 분석 장치.
An image acquisition unit for acquiring a face photographed image;
An image processing unit recognizing a plurality of predetermined landmarks in the face photographing image and tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip among the plurality of recognized landmarks; and
A visualization unit that visualizes lip motion information based on data tracking the upper lip landmark and the lower lip landmark
including,
The visualized lip movement information,
The lip motion information analysis device comprising a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing the movement trajectory of the upper lip landmark with the lower lip landmark as a reference point.
제 7 항에서,
상기 영상 처리부는,
상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 정렬하는 입술 움직임 정보 분석 장치.
In paragraph 7,
The image processing unit,
A lip motion information analysis device for aligning facial inclinations using at least some of the plurality of predetermined landmarks.
삭제delete 제 7 항에서,
상기 그래프는,
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현되는 입술 움직임 정보 분석 장치.
In paragraph 7,
The graph is
The lip motion information analysis device in which the color or shape of a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark moves in a direction closer to each other are expressed differently.
제 7 항에서,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함하는 입술 움직임 정보 분석 장치.
In paragraph 7,
The visualized lip movement information,
Lip motion information analysis device comprising a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.
KR1020210019906A 2021-02-15 2021-02-15 Lip motion information analysis method and device KR102501665B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210019906A KR102501665B1 (en) 2021-02-15 2021-02-15 Lip motion information analysis method and device
PCT/KR2022/001860 WO2022173180A1 (en) 2021-02-15 2022-02-07 Method and device for analyzing lip movement information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210019906A KR102501665B1 (en) 2021-02-15 2021-02-15 Lip motion information analysis method and device

Publications (2)

Publication Number Publication Date
KR20220116714A KR20220116714A (en) 2022-08-23
KR102501665B1 true KR102501665B1 (en) 2023-02-17

Family

ID=82837707

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210019906A KR102501665B1 (en) 2021-02-15 2021-02-15 Lip motion information analysis method and device

Country Status (2)

Country Link
KR (1) KR102501665B1 (en)
WO (1) WO2022173180A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180263731A1 (en) * 2017-03-20 2018-09-20 Align Technology, Inc. Generating a virtual depiction of an orthodontic treatment of a patient
JP2020035122A (en) * 2018-08-29 2020-03-05 オムロン株式会社 Face momentum measurement device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101621304B1 (en) * 2014-12-12 2016-05-16 서강대학교산학협력단 Active shape model-based lip shape estimation method and system using mouth map
KR101822105B1 (en) 2015-11-05 2018-01-26 오스템임플란트 주식회사 Medical image processing method for diagnosising temporomandibular joint, apparatus, and recording medium thereof
KR101840444B1 (en) * 2016-05-04 2018-03-20 주식회사 메디트 Device and Method for dental three-dimensional data processing
JP7081164B2 (en) * 2018-01-17 2022-06-07 株式会社Jvcケンウッド Display control device, communication device, display control method and communication method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180263731A1 (en) * 2017-03-20 2018-09-20 Align Technology, Inc. Generating a virtual depiction of an orthodontic treatment of a patient
JP2020035122A (en) * 2018-08-29 2020-03-05 オムロン株式会社 Face momentum measurement device

Also Published As

Publication number Publication date
WO2022173180A1 (en) 2022-08-18
KR20220116714A (en) 2022-08-23

Similar Documents

Publication Publication Date Title
US11553983B2 (en) System and method for enhanced data analysis with specialized video enabled software tools for medical environments
TW202018586A (en) Systems and methods for training generative adversarial networks and use of trained generative adversarial networks
US10507065B2 (en) System and method for enhanced data analysis with video enabled software tools for medical environments
TW202001929A (en) Systems and methods for processing real-time video from a medical image device and detecting objects in the video
US11699529B2 (en) Systems and methods for diagnosing a stroke condition
US10893917B2 (en) System and method for enhanced data analysis with specialized video enabled software tools for medical environments
KR102155309B1 (en) Method for predicting cognitive impairment, server, user device and application implementing the method
KR20180105879A (en) Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same
BR112021008107A2 (en) method and system to propose and visualize dental treatments
Hamad et al. Automated segmentation of the vocal folds in laryngeal endoscopy videos using deep convolutional regression networks
KR102195850B1 (en) Method and system for segmentation of vessel using deep learning
KR102501665B1 (en) Lip motion information analysis method and device
JP5500216B2 (en) Image display apparatus and program
JP2023546698A (en) Systems and methods for imaging, displaying, and manipulating medical images and videos
US20240033034A1 (en) System and method for enhanced data analysis with specialized video enabled software tools for medical environments
US20230337913A1 (en) Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor
CN106778036A (en) A kind of method and device of data processing
KR20160115269A (en) System and application for providing information of health examinations
KR20160112493A (en) Effective oral lesion onset detection method and system in Computed Tomography
JP6817782B2 (en) Pulse detection device and pulse detection method
JP2005345310A (en) Blood health support system
WO2021111548A1 (en) Information presentation system, information presentation method, computer program, and authentication system
CN116364265B (en) Medical endoscope image optimization system and method
US11896196B2 (en) Method for enhanced data analysis with specialized video enabled software tools for medical environments
Suzuki et al. Automatic surgical phase estimation using multiple channel video data for post-operative incident analysis

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant