KR102501665B1 - Lip motion information analysis method and device - Google Patents
Lip motion information analysis method and device Download PDFInfo
- Publication number
- KR102501665B1 KR102501665B1 KR1020210019906A KR20210019906A KR102501665B1 KR 102501665 B1 KR102501665 B1 KR 102501665B1 KR 1020210019906 A KR1020210019906 A KR 1020210019906A KR 20210019906 A KR20210019906 A KR 20210019906A KR 102501665 B1 KR102501665 B1 KR 102501665B1
- Authority
- KR
- South Korea
- Prior art keywords
- lip
- landmark
- movement
- motion information
- lower lip
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/45—For evaluating or diagnosing the musculoskeletal system or teeth
- A61B5/4538—Evaluating a particular part of the muscoloskeletal system or a particular medical condition
- A61B5/4542—Evaluating the mouth, e.g. the jaw
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1121—Determining geometric values, e.g. centre of rotation or angular range of movement
- A61B5/1122—Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biophysics (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physiology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Physical Education & Sports Medicine (AREA)
- Rheumatology (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
본 발명은 입술 움직임 정보 분석 방법 및 장치에 관한 것으로, 본 발명에 따른 입술 움직임 정보 분석 방법은 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 입술 움직임 트래킹 단계, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계를 포함한다. 본 발명에 의하면 입을 벌리거나 다무는 동작을 취할 때 입술 움직임 정보를 시각화하여 표시할 수 있으며, 입술 최대 이동폭을 정량화하여 함께 표시함으로써 환자의 입술 움직임 정보를 객관적으로 분석한 결과를 제공할 수 있다.The present invention relates to a method and apparatus for analyzing lip movement information. The method for analyzing lip movement information according to the present invention tracks an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographed image. A lip movement tracking step, and visualizing lip movement information based on data obtained by tracking the upper lip landmark and the lower lip landmark. According to the present invention, lip movement information can be visualized and displayed when opening or closing the mouth, and by quantifying and displaying the maximum movement range of the lips, objectively analyzing the patient's lip movement information can be provided. .
Description
본 발명은 입술 움직임 정보 분석 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for analyzing lip movement information.
턱관절은 아래턱뼈와 머리뼈가 만나 이루는 관절로, 음식을 씹거나 말을 할 때 핵심적인 역할을 한다. 턱관절과 근육에 문제가 생기는 것을 턱관절 질환이라고 한다.The temporomandibular joint is a joint formed by the meeting of the lower jawbone and the skull bone, and plays a key role when chewing food or speaking. Problems with the jaw joint and muscles are called temporomandibular joint disease.
턱관절 질환의 정확한 진단을 위해 X-ray, MRI, CT 촬영, 초음파 영상 촬영 등이 이루어진다. 또한 턱 운동의 제한 정도를 알아보기 위해 입을 최대한 벌려 개구 범위를 측정하거나, 입을 벌리거나 다물 때 턱 관절에서 발생하는 소리를 검사하기도 한다.For accurate diagnosis of temporomandibular joint disease, X-ray, MRI, CT scan, and ultrasound imaging are performed. In addition, to find out the degree of restriction of jaw movement, the mouth opening range is measured by opening the mouth as much as possible, or the sound generated by the jaw joint when the mouth is opened or closed is examined.
턱관절에 질환이 생긴 경우 턱을 좌우로 비틀며 입을 벌리거나 다무는 증상을 보일 수 있다. 종래에는 환자의 입을 벌리거나 다무는 동작을 임상의가 직접 관찰하여 평가하는 방식으로 검사가 이루어져서, 임상의에 따라 평가 결과가 달라질 수 있었다.If you have a disease in the temporomandibular joint, you may show symptoms of twisting your jaw from side to side and opening or closing your mouth. Conventionally, an examination is performed in such a way that a clinician directly observes and evaluates a patient's mouth opening or closing motion, and evaluation results may vary depending on the clinician.
따라서 본 발명이 해결하고자 하는 기술적 과제는 턱관절 질환 진단을 위한 환자의 입술 움직임 정보를 객관적으로 분석할 수 있도록 지원하는 입술 움직임 정보 분석 방법 및 장치를 제공하는 것이다.Therefore, the technical problem to be solved by the present invention is to provide a lip movement information analysis method and apparatus that support the objective analysis of patient's lip movement information for diagnosing temporomandibular joint disease.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 입술 움직임 정보 분석 방법은 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 입술 움직임 트래킹 단계, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계를 포함한다.A lip movement information analysis method according to the present invention for solving the above technical problem includes a lip movement tracking step of tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographed image, and and visualizing lip motion information based on data obtained by tracking the upper lip landmark and the lower lip landmark.
상기 방법은, 상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하는 단계, 그리고 상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 미리 정해진 방향으로 정렬하는 단계를 더 포함할 수 있다.The method may further include recognizing a plurality of predetermined landmarks in the face photographing image, and aligning face inclinations in a predetermined direction using at least some of the plurality of predetermined landmarks. .
상기 시각화된 입술 움직임 정보는, 상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함할 수 있다.The visualized lip motion information may include a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing a movement trajectory of the upper lip landmark with the lower lip landmark as a reference point. can
상기 그래프는, 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현할 수 있다.In the graph, a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark of the lower lip move in a direction closer to each other may be expressed in different colors or shapes.
상기 시각화된 입술 움직임 정보는, 상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함할 수 있다.The visualized lip motion information may include a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.
컴퓨터에 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 포함할 수 있다.It may include a computer-readable recording medium on which a program for executing the method is recorded on a computer.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 입술 움직임 정보 분석 장치는 얼굴 촬영 영상을 획득하는 영상 획득부, 상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하고, 상기 인식된 복수의 랜드마크 중에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 영상 처리부, 그리고 상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 시각화부를 포함한다.An apparatus for analyzing lip movement information according to the present invention for solving the above technical problem is an image acquisition unit that acquires a photographed face image, recognizes a plurality of predetermined landmarks in the photographed face image, and recognizes the plurality of landmarks. An image processing unit tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip, and visualizing lip motion information based on data tracking the upper lip landmark and the lower lip landmark. It includes a visualization unit that
본 발명에 의하면 입을 벌리거나 다무는 동작을 취할 때 입술 움직임 정보를 시각화하여 표시할 수 있으며, 입술 최대 이동폭을 정량화하여 함께 표시함으로써 환자의 입술 움직임 정보를 객관적으로 분석한 결과를 제공할 수 있다.According to the present invention, lip movement information can be visualized and displayed when opening or closing the mouth, and by quantifying and displaying the maximum movement range of the lips, objectively analyzing the patient's lip movement information can be provided. .
도 1은 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 입술 움직임 정보를 시각화하여 표시하는 화면을 예시한 것이다.
도 3은 본 발명에 따른 가로 최대 이동폭과 세로 최대 이동폭을 설명하기 위해 제공되는 도면이다.
도 4는 본 발명에 따른 입술 움직임 정보를 시각화하여 표시하는 화면의 다른 예를 예시한 것이다.
도 5는 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 동작 흐름도이다.1 is a block diagram of an apparatus for analyzing lip motion information according to an embodiment of the present invention.
2 illustrates a screen for visualizing and displaying lip movement information according to an embodiment of the present invention.
3 is a diagram provided to explain the maximum horizontal movement width and the maximum vertical movement width according to the present invention.
4 illustrates another example of a screen for visualizing and displaying lip movement information according to the present invention.
5 is an operation flowchart of an apparatus for analyzing lip motion information according to an embodiment of the present invention.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Then, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention.
도 1은 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 구성도이다.1 is a block diagram of an apparatus for analyzing lip motion information according to an embodiment of the present invention.
도 1을 참고하면, 본 발명에 따른 입술 움직임 정보 분석 장치는 영상 획득부(110), 영상 처리부(120), 시각화부(130), 표시부(140), 저장부(150) 및 제어부(160)를 포함할 수 있다.Referring to FIG. 1 , the apparatus for analyzing lip motion information according to the present invention includes an
영상 획득부(110)는 입을 벌리거나 다무는 동작을 취하고 있는 사람의 얼굴을 촬영한 동영상(이하 '얼굴 촬영 영상'이라 함)을 획득할 수 있다. 영상 획득부(110)는 CCD(Charge Coupled Device) 카메라나 CMOS(complementary metal-oxide semiconductor) 카메라 등으로 구현할 수 있다.The
영상 처리부(120)는 얼굴 촬영 영상에서 얼굴 검출, 랜드마크 인식, 얼굴 기울기 정렬, 입술 움직임 트래킹 등을 수행할 수 있다.The
영상 처리부(120)는 얼굴 촬영 영상에서 사람 얼굴 영역을 검출할 수 있다. 얼굴 촬영 영상에서 사람 얼굴 영역을 검출하는 다양한 방법, 예컨대 대칭적인 눈의 형태와 그 아래에 있는 코와 입들에 대한 특징치 들을 추출한 후 영상에서 이에 대한 검출을 시도하거나, 표준 얼굴 패턴에 대한 정보를 사전에 추출한 후 입력 영상과 사전에 정해 놓은 템플레이트(template)와의 상관관계를 추출함으로써 사람 얼굴을 검출하는 등의 방법이 알려져 있다. 물론 여기서 언급한 것 외에도 다양한 방법을 적용하여 영상 처리부(120)에서 얼굴 영역을 검출하도록 구현할 수 있다.The
영상 처리부(120)는 얼굴 촬영 영상에서 검출된 얼굴 영역에서 미리 정해진 복수의 랜드마크(landmark)를 인식할 수 있다. 얼굴 촬영 영상에서 검출되는 랜드마크는 실시예에 따라 달라질 수 있다.The
영상 처리부(120)는 인식된 복수의 랜드마크 중 일부를 이용하여, 얼굴 촬영 영상에서 검출된 얼굴의 기울기를 미리 정해진 방향으로 정렬할 수 있다. 예를 들어 양 눈의 내안각을 연결하는 선분이 수평이 되게 사람 얼굴의 기울기를 정렬할 수 있다. 물론 양 눈의 외안각을 얼굴 기울기 정렬에 이용하거나, 또는 눈이 아닌 다른 부위에서 인식되는 랜드마크를 이용하여 얼굴 기울기 정렬을 수행하는 것도 가능하다.The
영상 처리부(120)는 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹(tracking)할 수 있다. 윗 입술 랜드마크와 아래 입술 랜드마크는 윗 입술 영역과 아래 입술 영역의 중심으로 정해질 수 있다. 실시예에 따라서 윗 입술 랜드마크와 아래 입술 랜드마크는 윗 입술 중앙 최상단과 아래 입술 중앙 최하단으로 정해질 수도 있다. 물론 윗 입술 영역과 아래 입술 영역의 다른 부분으로 윗 입술 랜드마크와 아래 입술 랜드마크를 정하는 것도 가능하다.The
시각화부(130)는 영상 처리부(120)에서 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하여 표시부(140)에 표시할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 입술 움직임 정보를 시각화하여 표시하는 화면을 예시한 것이다.2 illustrates a screen for visualizing and displaying lip movement information according to an embodiment of the present invention.
도 2를 참고하면, 입술 움직임 정보 시각화 표시 화면은 얼굴 촬영 영상 표시 영역(10), 그래프 표시 영역(20) 및 최대 이동폭 표시 영역(30)을 포함할 수 있다. 화면 모드에 따라서 그래프 표시 영역(20)만 화면에 표시하는 것도 가능하다.Referring to FIG. 2 , the lip motion information visualization display screen may include a face capture
얼굴 촬영 영상 표시 영역(10)은 입을 벌리고 다무는 동작을 촬영한 얼굴 촬영 영상을 실시간으로 또는 녹화 후 재생할 수 있다. 얼굴에서 인식된 랜드마크 중 적어도 일부가 얼굴 촬영 영상에 함께 표시될 수 있다. 도 2에서는 얼굴 기울기 정렬에 이용하는 양 눈의 내안각에 대응하는 랜드마크와, 입술 움직임 트래킹에 이용하는 윗 입술 랜드마크와 아래 입술 랜드마크가 함께 녹색 점으로 표시된 예를 나타낸다.The face photographing
그래프 표시 영역(20)은 윗 입술 랜드마크 또는 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프가 표시될 수 있다. 도 2에서는 윗 입술 랜드마크의 위치를 기준점(0,0)으로 아래 입술 랜드마크에 해당하는 점(23)의 이동 괘적을 그래프(21, 22)로 표시한 예이다.In the
윗 입술 랜드마크와 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간에 대해서, 그래프(21, 22)의 색상 또는 모양을 다르게 표현할 수 있다.Different colors or shapes of the
입을 다문 상태에서 벌리면 점(23)이 기준점(0.0)에서 아래로 이동하면서 멀어지게 된다. 도 2에서 붉은색으로 표시된 그래프(21) 부분은 입을 벌리는 동작을 취할 때 아래 입술 랜드마크의 이동 궤적을 나타낸 것이다.When the mouth is opened in a closed state, the
한편 입을 벌렸다가 다물면 점(23)이 위로 이동하면서 기준점(0,0)으로 가까와지면서 복귀한다. 도 2에서 파란색으로 표시된 그래프(22) 부분은 입을 다무는 동작을 취할 때 아래 입술 랜드마크의 이동 궤적을 나타낸 것이다.On the other hand, if the mouth is opened and then closed, the point (23) moves upward and returns while approaching the reference point (0,0). The portion of the
실시예에 따라서 색상 대신에 선의 굵기를 다르게 하거나, 또는 선의 모양(실선, 점선 등)을 다르게 표현할 수 있다. 이에 의해 해당 그래프 부분이 입을 다무는 구간에 해당하는지 또는 입을 벌리는 구간에 해당하는지 쉽게 구분할 수 있다.Depending on the embodiment, the thickness of the line may be changed instead of the color, or the shape of the line (solid line, dotted line, etc.) may be expressed differently. Accordingly, it is possible to easily distinguish whether a corresponding graph portion corresponds to a closed mouth section or an open mouth section.
최대 이동폭 표시 영역(30)은 윗 입술 랜드마크 또는 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 표시할 수 있다. 여기서 가로 최대 이동폭은 윗 입술 랜드마크(또는 아래 입술 랜드마크)를 기준으로 아래 입술 랜드마크(또는 윗 입술 랜드마크)가 가로 축 방향(horizontal axis direction)으로 떨어진 최대 거리를 나타낸다. 그리고 세로 최대 이동폭은 윗 입술 랜드마크(또는 아래 입술 랜드마크)를 기준으로 아래 입술 랜드마크(또는 윗 입술 랜드마크)가 세로 축 방향(vertical axis direction)으로 떨어진 최대 거리를 나타낸다.The maximum movement
도 2에서는 아래 입술 랜드마크에 대응하는 점(23)이 윗 입술 랜드마크와 가로 축 방향으로 최대 0.7cm, 세로 축 방향으로 최대 2.5cm 떨어진 것을 나타내고 있다. 도 2에서는 'cm' 단위로 가로 최대 이동폭과 세로 최대 이동폭을 나타내고 있으나, 실시예에 따라 표시 단위는 달라질 수 있다.2 shows that the
도 3은 본 발명에 따른 가로 최대 이동폭과 세로 최대 이동폭을 설명하기 위해 제공되는 도면이다.3 is a diagram provided to explain the maximum horizontal movement width and the maximum vertical movement width according to the present invention.
도 3을 참고하면, 점(23)의 이동 궤적에 해당하는 그래프를 모두 포함하는 사각형(24)이 정의될 수 있다. 도 2에서 가로 최대 이동폭은 사각형(24)의 가로 폭(A)에 해당하고, 도 2에서 세로 최대 이동폭은 사각형(24)의 세로 폭(B)에 해당한다.Referring to FIG. 3 , a
도 4는 본 발명에 따른 입술 움직임 정보를 시각화하여 표시하는 화면의 다른 예를 예시한 것이다.4 illustrates another example of a screen for visualizing and displaying lip movement information according to the present invention.
턱관절에 질환이 없는 경우 입을 좌우로 비틀지 않고 크게 벌렸다가 다물 수 있다. 도 4에 예시한 것과 같이 가로 축 방향으로 비교적 적은 범위로 움직이고, 세로 축 방향으로 비교적 큰 범위로 움직이는 이동 궤적을 보일 수 있다. 도 4에서는 가로 최대 이동폭과 세로 최대 이동폭이 각각 0.3cm, 4.6cm인 예를 나타내고 있다.If there is no disease in the temporomandibular joint, you can open and close your mouth wide without twisting it from side to side. As illustrated in FIG. 4 , a movement trajectory moving in a relatively small range in the horizontal axis direction and moving in a relatively large range in the vertical axis direction may be shown. 4 shows an example in which the maximum horizontal movement width and the maximum vertical movement width are 0.3 cm and 4.6 cm, respectively.
한편 일부 턱관절 질환이 있는 경우 입을 좌우로 비틀거나, 크게 벌리기 힘든 증상을 나타낼 수 있다. 앞서 도 3에 예시한 것과 같이 가로 축 방향으로 비교적 큰 범위로 움직이고, 세로 축 방향으로 비교적 적은 범위로 움직이는 이동 궤적을 보일 수 있다. 도 3에서는 가로 최대 이동폭과 세로 최대 이동폭이 각각 0.3cm, 4.6cm인 예를 나타내고 있다.On the other hand, if you have some temporomandibular joint diseases, you may have symptoms that make it difficult to twist your mouth from side to side or open it wide. As illustrated in FIG. 3 above, a movement trajectory moving in a relatively large range in the horizontal axis direction and moving in a relatively small range in the vertical axis direction may be shown. 3 shows an example in which the maximum horizontal movement width and the maximum vertical movement width are 0.3 cm and 4.6 cm, respectively.
표시부(140)는 LCD 패널이나 LED 패널 등 디스플레이 수단을 구비한 모니터 장치 등으로 구현할 수 있다. 표시부(140)는 입술 움직임 정보 분석 장치의 동작과 관련된 각종 정보 및 데이터를 화면에 표시할 수 있다.The
저장부(150)는 입술 움직임 정보 분석 장치의 동작과 관련된 각종 정보 및 데이터를 저장할 수 있다. 구체적으로 저장부(150)는 영상 획득부(110)에서 획득된 얼굴 촬영 영상, 얼굴 촬영 영상에서 랜드마크 자동 인식에 이용되는 데이터, 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터, 입술 움직임 정보 시각화 데이터 등을 저장할 수 있다.The
제어부(160)는 본 발명에 따른 입술 움직임 정보 분석 장치의 전체적인 동작을 제어한다. 제어부(160)는 사용자 요청에 따라 얼굴 촬영 영상 표시 영역(10), 그래프 표시 영역(20) 및 최대 이동폭 표시 영역(30)를 모두 화면에 표시하거나, 그 중 어느 하나를 선택적으로 화면에 표시할 수도 있다.The
도 5는 본 발명의 일 실시예에 따른 입술 움직임 정보 분석 장치의 동작 흐름도이다.5 is an operation flowchart of an apparatus for analyzing lip motion information according to an embodiment of the present invention.
도 1 및 도 5를 참고하면, 먼저 영상 획득부(110)는 입을 벌리거나 다무는 동작을 취하는 모습을 촬영한 얼굴 촬영 영상을 획득할 수 있다(S510).Referring to FIGS. 1 and 5 , first, the
다음으로 영상 처리부(120)는 얼굴 촬영 영상에서 사람 얼굴 영역을 검출할 수 있다(S520).Next, the
그리고 영상 처리부(120)는 얼굴 촬영 영상에서 검출된 얼굴 영역에서 미리 정해진 복수의 랜드마크를 인식할 수 있다(S530). 단계(S530)에서 얼굴 기울기 정렬에 사용하기 위한 랜드마크, 윗 입술 랜드마크, 아래 입술 랜드마크를 인식할 수 있다. 사용자로부터 단계(S530)에서 인식된 랜드마크들 중에서 얼굴 기울기 정렬에 사용하기 위한 랜드마크, 윗 입술 랜드마크, 아래 입술 랜드마크 등을 선택받을 수도 있다.Also, the
이후 영상 처리부(120)는 단계(S530)에서 인식된 복수의 랜드마크 중 일부를 이용하여, 얼굴 촬영 영상에서 검출된 얼굴의 기울기를 미리 정해진 방향으로 정렬할 수 있다(S540).Thereafter, the
한편 영상 처리부(120)는 얼굴 촬영 영상에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹할 수 있다(S550). 단계(S540)는 단계(S550)를 수행하는 동안 병렬로 수행될 수 있다.Meanwhile, the
다음으로 시각화부(130)는 영상 처리부(120)에서 윗 입술 랜드마크와 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하여 표시부(140)에 표시할 수 있다(S560).Next, the
마지막으로 저장부(150)는 입술 움직임 정보 시각화 분석 데이터를 저장할 수 있다(S570). 입술 움직임 정보 시각화 분석 데이터는 입술 랜드마크의 이동 궤적이나 최대 이동폭 등 단계(S560)에서 시각화하여 표시한 입술 움직임 정보 등을 포함할 수 있다.Finally, the
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or provide instructions or data to a processing device. may be permanently or temporarily embodied in Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시 예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art can apply various technical modifications and variations based on the above. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
Claims (11)
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 단계
를 포함하고,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함하는 입술 움직임 정보 분석 방법.
A lip movement tracking step of tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip in a face photographing image, and
Visualizing lip motion information based on data tracking the upper lip landmark and the lower lip landmark
including,
The visualized lip movement information,
The method of analyzing lip motion information comprising a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing the movement trajectory of the upper lip landmark with the lower lip landmark as a reference point.
상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하는 단계, 그리고
상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 미리 정해진 방향으로 정렬하는 단계
를 더 포함하는 입술 움직임 정보 분석 방법.
In claim 1,
recognizing a plurality of predetermined landmarks in the face photographing image; and
Aligning the facial inclination in a predetermined direction using at least some of the plurality of predetermined landmarks
Lip movement information analysis method further comprising a.
상기 그래프는,
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현되는 입술 움직임 정보 분석 방법.
In claim 1,
The graph is
The lip movement information analysis method of claim 1 , wherein a color or shape of a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark moves in a direction closer to each other are expressed differently.
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함하는 입술 움직임 정보 분석 방법.
In claim 1,
The visualized lip movement information,
Lip motion information analysis method comprising a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.
A computer-readable recording medium recording a program for executing any one of the methods of claims 1, 2, 4, and 5 on a computer.
상기 얼굴 촬영 영상에서 미리 정해진 복수의 랜드마크를 인식하고, 상기 인식된 복수의 랜드마크 중에서 윗 입술에 대응하는 윗 입술 랜드마크와 아래 입술에 대응하는 아래 입술 랜드마크를 트래킹하는 영상 처리부, 그리고
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크를 트래킹한 데이터에 기초하여 입술 움직임 정보를 시각화하는 시각화부
를 포함하고,
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크를 기준점으로 상기 아래 입술 랜드마크의 이동 궤적을 나타내는 그래프 또는 상기 아래 입술 랜드마크를 기준점으로 상기 윗 입술 랜드마크의 이동 궤적을 나타내는 그래프를 포함하는 입술 움직임 정보 분석 장치.
An image acquisition unit for acquiring a face photographed image;
An image processing unit recognizing a plurality of predetermined landmarks in the face photographing image and tracking an upper lip landmark corresponding to the upper lip and a lower lip landmark corresponding to the lower lip among the plurality of recognized landmarks; and
A visualization unit that visualizes lip motion information based on data tracking the upper lip landmark and the lower lip landmark
including,
The visualized lip movement information,
The lip motion information analysis device comprising a graph representing a movement trajectory of the lower lip landmark with the upper lip landmark as a reference point or a graph representing the movement trajectory of the upper lip landmark with the lower lip landmark as a reference point.
상기 영상 처리부는,
상기 미리 정해진 복수의 랜드마크 중에서 적어도 일부를 이용하여 얼굴 기울기를 정렬하는 입술 움직임 정보 분석 장치.
In paragraph 7,
The image processing unit,
A lip motion information analysis device for aligning facial inclinations using at least some of the plurality of predetermined landmarks.
상기 그래프는,
상기 윗 입술 랜드마크와 상기 아래 입술 랜드마크가 서로 멀어지는 방향으로 이동하는 구간과 서로 가까와지는 방향으로 이동하는 구간의 색상 또는 모양이 다르게 표현되는 입술 움직임 정보 분석 장치.
In paragraph 7,
The graph is
The lip motion information analysis device in which the color or shape of a section in which the upper lip landmark and the lower lip landmark move in a direction away from each other and a section in which the landmark moves in a direction closer to each other are expressed differently.
상기 시각화된 입술 움직임 정보는,
상기 윗 입술 랜드마크 또는 상기 아래 입술 랜드마크의 가로 최대 이동폭과 세로 최대 이동폭을 포함하는 입술 움직임 정보 분석 장치.In paragraph 7,
The visualized lip movement information,
Lip motion information analysis device comprising a horizontal maximum movement width and a vertical maximum movement width of the upper lip landmark or the lower lip landmark.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019906A KR102501665B1 (en) | 2021-02-15 | 2021-02-15 | Lip motion information analysis method and device |
PCT/KR2022/001860 WO2022173180A1 (en) | 2021-02-15 | 2022-02-07 | Method and device for analyzing lip movement information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210019906A KR102501665B1 (en) | 2021-02-15 | 2021-02-15 | Lip motion information analysis method and device |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220116714A KR20220116714A (en) | 2022-08-23 |
KR102501665B1 true KR102501665B1 (en) | 2023-02-17 |
Family
ID=82837707
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210019906A KR102501665B1 (en) | 2021-02-15 | 2021-02-15 | Lip motion information analysis method and device |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102501665B1 (en) |
WO (1) | WO2022173180A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180263731A1 (en) * | 2017-03-20 | 2018-09-20 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
JP2020035122A (en) * | 2018-08-29 | 2020-03-05 | オムロン株式会社 | Face momentum measurement device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101621304B1 (en) * | 2014-12-12 | 2016-05-16 | 서강대학교산학협력단 | Active shape model-based lip shape estimation method and system using mouth map |
KR101822105B1 (en) | 2015-11-05 | 2018-01-26 | 오스템임플란트 주식회사 | Medical image processing method for diagnosising temporomandibular joint, apparatus, and recording medium thereof |
KR101840444B1 (en) * | 2016-05-04 | 2018-03-20 | 주식회사 메디트 | Device and Method for dental three-dimensional data processing |
JP7081164B2 (en) * | 2018-01-17 | 2022-06-07 | 株式会社Jvcケンウッド | Display control device, communication device, display control method and communication method |
-
2021
- 2021-02-15 KR KR1020210019906A patent/KR102501665B1/en active IP Right Grant
-
2022
- 2022-02-07 WO PCT/KR2022/001860 patent/WO2022173180A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180263731A1 (en) * | 2017-03-20 | 2018-09-20 | Align Technology, Inc. | Generating a virtual depiction of an orthodontic treatment of a patient |
JP2020035122A (en) * | 2018-08-29 | 2020-03-05 | オムロン株式会社 | Face momentum measurement device |
Also Published As
Publication number | Publication date |
---|---|
KR20220116714A (en) | 2022-08-23 |
WO2022173180A1 (en) | 2022-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI842573B (en) | Computer-implemented systems for processing real-time video | |
US11553983B2 (en) | System and method for enhanced data analysis with specialized video enabled software tools for medical environments | |
US11699529B2 (en) | Systems and methods for diagnosing a stroke condition | |
CN118736374A (en) | System and method for training a generated countermeasure network and using a trained generated countermeasure network | |
US10507065B2 (en) | System and method for enhanced data analysis with video enabled software tools for medical environments | |
US10893917B2 (en) | System and method for enhanced data analysis with specialized video enabled software tools for medical environments | |
KR102195850B1 (en) | Method and system for segmentation of vessel using deep learning | |
US11998400B2 (en) | System and method for enhanced data analysis with specialized video enabled software tools for medical environments | |
KR20180105879A (en) | Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same | |
JP2008073280A (en) | Eye-fundus image processor | |
KR102501665B1 (en) | Lip motion information analysis method and device | |
JP2023546698A (en) | Systems and methods for imaging, displaying, and manipulating medical images and videos | |
US20230337913A1 (en) | Method and photographing device for acquiring side image for ocular proptosis degree analysis, and recording medium therefor | |
CN106778036A (en) | A kind of method and device of data processing | |
KR20160115269A (en) | System and application for providing information of health examinations | |
KR20160112493A (en) | Effective oral lesion onset detection method and system in Computed Tomography | |
WO2021111548A1 (en) | Information presentation system, information presentation method, computer program, and authentication system | |
JP2005345310A (en) | Blood health support system | |
KR20210084110A (en) | A real time face evaluating method for specific people and improvement evaluating method for ability of cognition | |
CN116364265B (en) | Medical endoscope image optimization system and method | |
US20240197218A1 (en) | Method and apparatus for analyzing eye movement | |
Suzuki et al. | Automatic surgical phase estimation using multiple channel video data for post-operative incident analysis | |
WO2021117466A1 (en) | Pathological diagnosis support system, and pathological diagnosis support device | |
JP2024024307A (en) | Image processing device, image processing method, and program | |
Nerino et al. | Steps toward Automatic Assessment of Parkinson’s Disease at Home |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |