KR100930594B1 - The system for capturing 2d facial image and extraction method of face feature points thereof - Google Patents
The system for capturing 2d facial image and extraction method of face feature points thereof Download PDFInfo
- Publication number
- KR100930594B1 KR100930594B1 KR1020090042061A KR20090042061A KR100930594B1 KR 100930594 B1 KR100930594 B1 KR 100930594B1 KR 1020090042061 A KR1020090042061 A KR 1020090042061A KR 20090042061 A KR20090042061 A KR 20090042061A KR 100930594 B1 KR100930594 B1 KR 100930594B1
- Authority
- KR
- South Korea
- Prior art keywords
- area
- point
- triangle
- face
- region
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/68—Analysis of geometric attributes of symmetry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/169—Holistic features and representations, i.e. based on the facial image taken as a whole
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
Abstract
Description
본 발명은 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법에 관한 것으로, 보다 상세하게는, 대상 인물의 정면 영상을 촬영하여 안면 특징점을 검출하는 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법에 관한 것이다.The present invention relates to a facial imaging apparatus and a facial feature point detecting method thereof, and more particularly, to a facial image capturing apparatus and a facial feature point detection method thereof for photographing a front image of a subject.
일반적으로 특정한 인물의 영상에서 특징점은 다양한 기술분야에서 사용된다. 특히, 대상 인물의 안면 영상에서 추출된 특징점은 안면 인식 기술에서 유용하게 사용되어 영상을 통하여 대상 인물의 동일성을 판별하는데 사용되기도 한다.In general, feature points in images of a specific person are used in various technical fields. In particular, the feature points extracted from the facial image of the target person may be usefully used in facial recognition technology to determine the identity of the target person through the image.
이러한 안면 영상에서의 특징점은 의학분야에서도 이용될 수 있다. 현재 과학기술이 발전함에 따라 의사와 환자가 직접 대면하지 않고 원거리에서 환자의 영상만을 분석하여 건강의 정도나 이상 유무를 어느 정도 측정할 수 있는 기술들이 개발되고 있다. 또한, 홈-케어(Home-Care) 시스템이나 유비쿼터스-헬스케어 시스템에서 안면 진단의 적용이 가능하다. Feature points in these facial images can also be used in the medical field. With the development of current science and technology, technologies are being developed that can measure the degree of health or abnormality by analyzing images of patients at a distance without facing doctors and patients directly. In addition, it is possible to apply facial diagnosis in a home-care system or a ubiquitous healthcare system.
상기와 같이 환자의 얼굴 영상을 통해 진단이 이루어지기 위해서는 특징점을 정확하게 추출하는 것이 중요하다. 만약 사진 촬영시 얼굴이 기울어져 있으면 특징점 추출의 정확도가 저하된다. 이러한 경우에는 안면 영상을 통한 진단이 제대로 이루어지기 힘든 문제점이 있다. 따라서, 대상 인물의 자세를 교정하여 정확한 자세의 안면 영상을 촬영할 수 있는 안면 영상 촬영장치가 필요하다.As described above, it is important to accurately extract the feature points in order to perform diagnosis through the face image of the patient. If the face is tilted when taking a picture, the accuracy of feature point extraction is degraded. In this case, there is a problem that it is difficult to properly diagnose through facial images. Accordingly, there is a need for a facial image capturing apparatus capable of correcting a posture of a target person and capturing a facial image of a correct posture.
또한, 사람의 정면 얼굴 영상을 이용하여 2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션에도 적용이 가능하여 휴대폰과 같은 곳에서의 3차원 얼굴을 이용한 게임 및 엔터테인먼트에도 쓸 수 있다. In addition, it is possible to apply to the generation and animation of two-dimensional image-based three-dimensional personal face model using a front face image of a person can be used for games and entertainment using a three-dimensional face in places such as mobile phones.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은, 대상 인물의 정면 영상을 촬영하여 자세를 교정함으로써, 바른 자세를 갖는 정면 영상을 획득할 수 있는 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and an object of the present invention is to capture a front image of a target person and correct a posture, so that a face image photographing apparatus capable of obtaining a front image having a correct posture and facial feature points thereof It is for providing a detection method.
또한, 본 발명의 다른 목적은, 정면 영상의 중심선을 기준으로 대칭되는 좌 영역 및 우 영역 중 어느 하나의 영역에서만 안면 특징점을 검출하여 그에 매칭되는 안면 매칭점을 타 영역에서 검출함으로써, 보다 빠르고 정확하게 안면 특징점을 검출할 수 있는 안면 영상 촬영장치 및 그의 안면 특징점 검출 방법을 제공하기 위한 것이다. In addition, another object of the present invention is to detect the facial feature point in only one of the left region and the right region symmetrical with respect to the centerline of the front image, and to detect the face matching point matching the other region faster, more accurately A facial imaging apparatus capable of detecting facial feature points and a method for detecting facial feature points thereof are provided.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 안면 영상 촬영장치는, 대상 인물의 정면 영상을 실시간으로 촬영하는 카메라, 상기 카메라에 의해 촬영된 정면 영상이 출력되는 디스플레이부, 색상 정보를 이용하여 상기 정면 영상에서 양쪽 눈동자의 중심점인 제1 및 제2 지점을 검출하고, 입의 중심점인 제3 지점을 검출하는 제1 검출부 및 검출된 상기 제1 내지 제3 지점을 서로 연결하여 삼각형을 형성하고 상기 삼각형이 대칭 기준에 부합하는지 여부를 판단하여, 판단 결과를 출력하도록 상기 디스플레이부를 제어하는 제어부를 포함한다.According to an aspect of the present invention, there is provided a facial image capturing apparatus comprising: a camera for photographing a front image of a target person in real time, a display unit for outputting a front image captured by the camera, and color information. The first and second points, which are the center points of both eyes, are detected in the front image, and the first detection unit that detects the third point, which is the center point of the mouth, and the detected first to third points are connected to each other to form a triangle. And a control unit for controlling the display unit to determine whether the triangle meets a symmetry criterion and output a determination result.
한편, 상기 제어부는 상기 제1 지점과 제2 지점을 연결한 상기 삼각형의 일 변이 지면과 평행인지를 1차 판단하고, 상기 일 변이 지면과 평행하다고 판단된 경우에 상기 삼각형의 중심선을 기준으로 좌우가 대칭인지를 2차 판단할 수 있다. On the other hand, the control unit first determines whether one side of the triangle connecting the first point and the second point is parallel to the ground, and when it is determined that the one side is parallel to the ground, the left and right on the basis of the center line of the triangle It is possible to determine whether is symmetric.
이 경우, 상기 제어부는 상기 2차 판단의 결과, 상기 삼각형의 중심을 기준으로 좌우가 대칭이면 상기 정면 영상에 대한 교정이 완료되었음을 알리는 메시지를 출력하도록 상기 디스플레이부를 제어할 수 있다. In this case, the controller may control the display unit to output a message indicating that the calibration of the front image is completed when the left and right are symmetrical with respect to the center of the triangle as a result of the second determination.
또는, 상기 제어부는 상기 1차 판단의 결과, 상기 일 변이 지면과 평행이 아니라고 판단되거나 상기 2차 판단의 결과, 상기 삼각형의 중심을 기준으로 좌우가 대칭이 아니라고 판단되면 상기 정면 영상에 대한 교정이 필요함을 알리는 메시지를 출력하도록 상기 디스플레이부를 제어할 수 있다. Alternatively, the controller may determine that the one side is not parallel to the ground as a result of the first determination, or if the left and right are not symmetrical based on the center of the triangle as a result of the second determination, the correction of the front image is performed. The display unit may be controlled to output a message indicating that it is necessary.
이 경우, 상기 제어부는 상기 정면 영상에 대한 교정이 필요함을 알리는 메시지를 출력한 후, 상기 카메라에 의해 재촬영된 정면 영상에서 삼각형을 재형성하고 상기 재형성된 삼각형이 대칭 기준에 부합되는지 여부를 판단할 수 있다. In this case, the controller outputs a message indicating that the front image needs to be corrected, and then reconstructs a triangle from the front image retaken by the camera and determines whether the reshaped triangle meets a symmetry criterion. can do.
본 안면 영상 촬영장치는, 상기 정면 영상 중 상기 삼각형의 중심선을 기준으로 좌 영역 및 우 영역 중 어느 하나의 제1 영역에서 눈썹의 위치 정보, 코 위치 정보, 얼굴 라인 정보 및 귀 위치 정보를 포함하는 안면 특징점을 검출하는 제2 검출부를 더 포함할 수 있다. The face image photographing apparatus includes eyebrow position information, nose position information, face line information, and ear position information in any one of a first region of a left region and a right region with respect to the center line of the triangle of the front image. The apparatus may further include a second detector configured to detect facial feature points.
그리고, 상기 제어부는 상기 제2 영역에서, 상기 제1 영역의 안면 특징점에 대칭되는 지점을 중심으로 일 영역을 설정하고, 상기 설정된 영역 내에서 매칭되는 안면 매칭점을 검출할 수 있다. In addition, the controller may set one region centered on a point symmetrical to the facial feature point of the first region in the second region, and detect a face matching point that matches within the set region.
이 경우, 상기 제어부는 상기 제2 영역에서, 상기 제1 영역의 안면 특징점에 매칭되는 안면 매칭점이 미검출된 경우 하기 수학식을 이용하여 상기 제2 영역에서 안면 매칭 대상점을 산출하며,In this case, when the face matching point matching the face feature point of the first area is not detected in the second area, the controller calculates a face matching target point in the second area by using the following equation,
여기서, c1은 상기 제1 영역에서의 메인 안면 특징점, c2는 상기 제1 영역에서의 제1 서브 안면 특징점, c3는 상기 제1 영역에서의 제2 서브 안면 특징점, d1은 상기 제2 영역에서 산출하고자 하는 안면 매칭 대상점, d2는 상기 제2 영역에서 상기 c2에 매칭되는 제1 서브 안면 매칭점, d3는 상기 제2 영역에서 상기 c3에 매칭되는 제2 서브 안면 매칭점이다. Here, c 1 is a main face feature point in the first area, c 2 is a first sub face feature point in the first area, c 3 is a second sub face feature point in the first area, and d 1 is the first face feature point in the first area. A facial matching target point to be calculated in area 2, d 2 is a first sub face matching point matching c 2 in the second area, and d 3 is a second sub face matching c 3 in the second area. Matching point.
한편, 본 발명의 일 실시 예에 따른 안면 영상 촬영장치의 안면 특징점 검출 방법은, 카메라를 이용하여 대상 인물의 정면 영상을 실시간으로 촬영하여 디스플레이하는 제1 단계, 색상 정보를 이용하여 상기 카메라에 의해 촬영된 정면 영상에서 양쪽 눈동자의 중심점인 제1 및 제2 지점을 검출하고, 입의 중심점인 제3 지점을 검출하는 제2 단계 및 검출된 상기 제1 내지 제3 지점을 연결하여 삼각형을 형성하고 상기 삼각형이 대칭 기준에 부합하는지 여부를 판단하여, 판단 결과를 디스플레이 화면을 통해 출력하는 제3 단계를 포함한다. On the other hand, the facial feature point detection method of the facial imaging apparatus according to an embodiment of the present invention, the first step of capturing and displaying the front image of the target person in real time using a camera, by the camera using the color information Detecting the first and second points, which are the center points of both eyes, in the photographed front image, and forming a triangle by connecting the second and third points detected to the third point, which is the center point of the mouth. And determining whether the triangle meets a symmetry criterion, and outputting the determination result on the display screen.
상기 제3 단계는 상기 제1 지점과 제2 지점을 연결한 상기 삼각형의 일 변이 지면과 평행인지를 1차 판단하는 제1 공정 및 상기 일 변이 지면과 평행하다고 판단된 경우에 상기 삼각형의 중심선을 기준으로 좌우가 대칭인지를 2차 판단하는 제2 공정을 포함할 수 있다. The third step is a first process of first determining whether one side of the triangle connecting the first point and the second point is parallel to the ground, and the center line of the triangle when it is determined that the one side is parallel to the ground. As a reference, it may include a second process of determining whether the right and left are symmetric.
이 경우, 상기 제3 단계는 상기 2차 판단의 결과, 상기 삼각형의 중심을 기준으로 좌우가 대칭이면 상기 정면 영상에 대한 교정이 완료되었음을 알리는 메시지를 상기 디스플레이 화면에 출력할 수 있다. In this case, in the third step, as a result of the second determination, if the left and right are symmetric with respect to the center of the triangle, a message indicating that the calibration of the front image is completed may be output on the display screen.
또는, 상기 제3 단계는 상기 1차 판단의 결과, 상기 일 변이 지면과 평행이 아니라고 판단되거나 상기 2차 판단의 결과, 상기 삼각형의 중심을 기준으로 좌우가 대칭이 아니라고 판단되면 상기 정면 영상에 대한 교정이 필요함을 알리는 메시지를 상기 디스플레이 화면에 출력할 수 있다. Alternatively, in the third step, when it is determined that the one side is not parallel to the ground as a result of the first determination or as a result of the second determination, it is determined that the left and right are not symmetrical with respect to the center of the triangle. A message indicating that calibration is necessary may be output on the display screen.
이 경우, 상기 제3 단계는 상기 정면 영상에 대한 교정이 필요함을 알리는 메시지를 출력한 후, 상기 카메라에 의해 재촬영된 정면 영상에서 삼각형을 재형성하고 상기 재형성된 삼각형이 대칭 기준에 부합되지는 여부를 판단할 수 있다.In this case, after outputting a message indicating that the front image needs to be corrected, the third step may reconstruct a triangle from the front image re-photographed by the camera, and the reshaped triangle does not meet the symmetry criterion. It can be determined.
본 안면 특징점 검출 방법은, 상기 정면 영상 중 상기 삼각형의 중심선을 기준으로 좌 영역 및 우 영역 중 어느 하나의 제1 영역에서 눈썹의 위치 정보, 코 위치 정보, 얼굴 라인 정보 및 귀 위치 정보를 포함하는 안면 특징점을 검출하는 제4 단계를 더 포함할 수 있다.The facial feature point detection method includes eyebrow position information, nose position information, face line information, and ear position information in any one of a first region of a left region and a right region with respect to the center line of the triangle in the front image. The method may further include detecting a facial feature point.
그리고, 상기 제2 영역에서, 상기 제1 영역의 안면 특징점에 대칭되는 지점을 중심으로 일 영역을 설정하고, 상기 설정된 영역 내에서 매칭되는 안면 매칭점을 검출하는 제5 단계를 더 포함할 수 있다. The method may further include a fifth step of setting a region around a point symmetrical to the facial feature point of the first region in the second region and detecting a face matching point that matches within the set region. .
상기 제5 단계는 상기 제2 영역에서, 상기 제1 영역의 안면 특징점에 매칭되는 안면 매칭점이 미검출된 경우 하기 수학식을 이용하여 상기 제2 영역에서 안면 매칭 대상점을 산출하며,In the fifth step, when a face matching point matching the facial feature point of the first area is not detected in the second area, a face matching target point is calculated in the second area by using the following equation.
여기서, c1은 상기 제1 영역에서의 메인 안면 특징점, c2는 상기 제1 영역에서의 제1 서브 안면 특징점, c3는 상기 제1 영역에서의 제2 서브 안면 특징점, d1은 상기 제2 영역에서 산출하고자 하는 안면 매칭 대상점, d2는 상기 제2 영역에서 상기 c2에 매칭되는 제1 서브 안면 매칭점, d3는 상기 제2 영역에서 상기 c3에 매칭되는 제2 서브 안면 매칭점이다.Here, c 1 is a main face feature point in the first area, c 2 is a first sub face feature point in the first area, c 3 is a second sub face feature point in the first area, and d 1 is the first face feature point in the first area. A facial matching target point to be calculated in area 2, d 2 is a first sub face matching point matching c 2 in the second area, and d 3 is a second sub face matching c 3 in the second area. Matching point.
본 발명에 따르면, 촬영된 대상 인물의 정면 영상에서 눈동자 중심점과 입 중심점을 연결한 삼각형이 대칭 조건을 만족하는지를 판단하여 자세를 바르게 교정할 수 있다. 그리고, 교정된 자세의 정면 영상에서 좌 영역 또는 우 영역 중 어느 하나의 영역을 이용하여 안면 특징점을 검출하고, 대칭되는 영역에서 안면 매칭점을 검출함으로써, 보다 빠르고 정확하게 안면 특징점을 검출할 수 있게 된다. According to the present invention, it is possible to correct the posture by determining whether the triangle connecting the pupil center point and the mouth center point satisfies the symmetry condition in the front image of the photographed target person. In addition, by detecting a facial feature point using one of the left region and the right region in the front image of the corrected posture, and detecting the face matching point in the symmetrical region, the facial feature point can be detected more quickly and accurately. .
또한, 대칭되는 영역에서 안면 매칭점이 검출되지 않더라도 안면 매칭 대상 점을 산출하여 안면 특징점이 모두 표시되는 정면 영상을 제공할 수 있게 되며, 의료 진단시 의사는 보다 질 높은 진단 내용을 환자에게 전달할 수 있게 된다. In addition, even if a face matching point is not detected in a symmetrical area, a face matching target point may be calculated to provide a front image in which all facial feature points are displayed, and a doctor may deliver a higher quality diagnosis to a patient during medical diagnosis. do.
이하에서는 첨부된 도면을 참조하여 본 발명을 보다 자세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.
도 1은 본 발명의 일 실시예에 따른 안면 영상 촬영장치를 나타내는 블럭도이다. 도 1을 참조하면, 본 안면 영상 촬영장치(100)는 카메라(110), 디스플레이부(120), 제1 검출부(130), 제2 검출부(140), 제어부(150) 및 메모리(160)를 더 포함한다. 1 is a block diagram illustrating a facial imaging apparatus according to an exemplary embodiment of the present invention. Referring to FIG. 1, the
카메라(110)는 대상 인물의 정면 영상을 촬영하여 전기적인 신호로 변환한다. 이 경우, 이용되는 카메라(110)의 종류에는 제한이 없으나 일반적으로 디지털 카메라가 사용될 수 있다. The
디스플레이부(120)는 카메라(110)에 의해 촬영된 정면 영상을 출력한다. The
제1 검출부(130)는 카메라(110)에 의해 촬영된 정면 영상에서 색상 정보를 이용하여 양쪽 눈동자의 중심점인 제1 및 제2 지점을 검출하고, 입의 중심점인 제3 지점을 검출한다. The
제어부(150)는 안면 영상 촬영장치(100)의 전반적인 동작을 제어하며, 특히, 정면 영상의 교정과 안면 특징점 검출에 대한 동작을 제어한다. 이 경우, 제어부(150)는 제1 검출부(130)로부터 검출된 제1 내지 제3 지점을 이용하여 정면 영상 을 교정하는 동작을 제어하고, 그 후 제2 검출부(130)로부터 검출된 제1 영역의 안면 특징점을 이용하여 제2 영역에서 안면 특징점을 검출하는 동작을 제어한다. The
먼저, 제어부(150)의 정면 영상 교정 동작에 대해서 설명한다. 제어부(150)는 제1 검출부(130)로부터 검출된 제1 내지 제3 지점을 연결하여 삼각형을 형성한다. 이 경우, 제1 지점은 오른쪽 눈동자 중앙점(또는 왼쪽 눈동자 중앙점), 제2 지점은 왼쪽 눈동자 중앙점(또는 오른쪽 눈동자 중앙점), 그리고 제3 지점은 입술 중앙점이다. 따라서, 제1 지점과 제3 지점을 연결한 변과, 제2 지점과 제3 지점을 연결한 변은 길이가 동일하게 되어, 이등변 삼각형을 형성하게 된다. First, the front image correcting operation of the
그리고, 제어부(150)는 삼각형이 대칭 기준에 부합되는지 여부를 판단한다. 이러한 판단은 정면 영상에서 얼굴이 좌 방향이나 우 방향으로 회전되었는지를 검사하기 위한 것이다. 구체적으로, 제어부(150)는 제1 지점과 제2 지점을 연결한 삼각형의 일 변이 지면과 평행인지를 1차 판단한다. 그리고, 일 변이 지면과 평행하다고 판단된 경우에 삼각형의 중심선을 기준으로 정면 영상의 좌우가 대칭인지를 2차 판단한다. 이 경우, 삼각형의 중심선은 삼각형에서 제3 지점을 지나며, 지면에 수직이 되는 선이 될 수 있다. The
제어부(150)는 삼각형의 중심을 기준으로 좌우가 대칭되면 정면 영상을 메모리(160)에 저장하고 정면 영상에 대한 교정이 완료되었음을 알리는 메시지를 출력하도록 디스플레이부(120)를 제어한다. The
반면, 삼각형의 일 변이 지면과 평행하지 않거나, 삼각형의 중심선을 기준으로 좌우가 대칭되지 않으면, 제어부(150)는 정면 영상에 대한 교정이 필요함을 알리는 메시지를 출력하도록 디스플레이부(120)를 제어한다. 이에 따라, 대상 인물(사람)이 메시지를 확인하여, 자세를 교정하여 정면 영상을 재촬영할 수 있도록 한다. 이 경우, 디스플레이부(120)를 통해 출력되는 메시지는 반드시 문자 형태일 필요는 없으며, 특정 색상을 갖는 표시등이 될 수도 있다. On the other hand, if one side of the triangle is not parallel to the ground or the left and right are not symmetrical with respect to the center line of the triangle, the
이 후, 제어부(150)는 카메라(110)에 의해 재촬영된 정면 영상을 이용하여 삼각형을 재형성하고 대칭 기준에 부합하는지 여부를 판단하여 바른 자세의 정면 영상을 획득할 수 있게 된다. Subsequently, the
상술한 바와 같은 동작을 통해 대상 인물의 정면 영상이 교정되면, 제어부(150)는 안면 특징점을 검출하는 동작을 제어한다. 이에 대한 구체적인 동작을 설명하기 전에 제2 검출부(140)에 대해 설명한다. When the front image of the target person is calibrated through the above-described operation, the
제2 검출부(140)는 제1 영역에서 눈썹의 위치 정보, 코 위치 정보, 얼굴 라인 정보 및 귀 위치 정보를 포함하는 안면 특징점을 검출한다. 여기서 제1 영역이란, 인물의 정면 영상 중 삼각형의 중심선을 기준으로 좌 영역 및 우 영역 중 어느 하나의 영역을 말한다. 이 경우, 제1 영역으로 선택되는 어느 하나의 영역은 기 설정되어 있을 수도 있으며, 안면 특징점 검출시마다 임의로 변경될 수도 있다. The
제어부(150)는 제2 검출부(140)를 통해 제1 영역에서 검출된 안면 특징점을 이용하여, 그 안면 특징점에 매칭되는 안면 매칭점들을 제2 영역에서 검출한다. 여기서 제2 영역은 삼각형의 중심선을 기준으로 제1 영역과 대칭되는 영역으로, 제1 영역이 좌 영역인 경우에 제2 영역은 우 영역이 될 수 있다. 따라서, 제어부(150)는 제1 영역에서 검출된 안면 특징점을, 삼각형의 중심선을 기준으로 제2 영역에 매칭시켜 각 안면 특징점들에 매칭되는 안면 매칭점들을 검출한다. 이 경우, 제2 영역에서 검출되는 안면 매칭점들이 제2 영역에서의 안면 특징점이 될 수 있다. The
만약, 제1 영역의 안면 특징점 중 눈썹의 위치 정보를 이용하여 제2 영역에서 눈썹의 위치를 찾는 경우, 제1 영역과 제2 영역을 매칭시켜 제1 영역의 눈썹 위치와 매칭되는 점이 있는지를 확인한다. 구체적으로, 제2 영역에 위치한 눈썹 위치에 대한 안면 매칭점은, 삼각형의 중심선을 기준으로 제1 영역의 눈썹 위치에 대칭되는 지점을 제2 영역 상에서 검색하고, 검색된 지점을 중심으로 소정 크기의 직사각형 영역을 형성하여 그 안에서 검출할 수 있게 된다. 그 결과, 제2 영역에서 눈썹의 위치에 대한 안면 매칭점을 검출할 수 있게 된다. 이와 같이 제1 영역에서만 안면 특징점을 검출하고, 그 안면 특징점을 이용하여 제2 영역에서 안면 매칭점을 검출하는 것으로, 정면 영상에서의 안면 특징점 검출이 보다 빠르고 용이해질 수 있게 된다. If the position of the eyebrow is found in the second area by using the position information of the eyebrow among the facial feature points of the first area, the first area and the second area are matched to determine whether there is a point matching the eyebrow position of the first area. do. Specifically, the face matching point for the position of the eyebrows located in the second area is searched on the second area for a point symmetrical to the position of the eyebrows of the first area with respect to the centerline of the triangle, and a rectangle of a predetermined size around the detected point. The area can be formed and detected therein. As a result, the face matching point with respect to the position of the eyebrow in the second area can be detected. As described above, the facial feature points are detected only in the first area, and the facial matching points are detected in the second area by using the facial feature points, thereby making it easier and faster to detect the facial feature points in the front image.
한편, 상기 제어부(150)는 제2 영역에서, 제1 영역의 안면 특징점에 매칭되는 안면 매칭점이 검출되지 않은 경우, 안면 매칭 대상점을 산출한다. 이 경우, 안면 매칭 대상점은 다음의 수학식을 이용하여 산출할 수 있다. The
여기서, c1은 제1 영역에서의 메인 안면 특징점, c2는 제1 영역에서의 제1 서브 안면 특징점, c3는 제1 영역에서의 제2 서브 안면 특징점, d1은 제2 영역에서 산출하고자 하는 안면 매칭 대상점, d2는 제2 영역에서 c2에 매칭되는 제1 서브 안면 매칭점, d3는 제2 영역에서 c3에 매칭되는 제2 서브 안면 매칭점이다. 이 경우, 각 점들, 즉, c1, c2, c3, d1, d2 및 d3은 2차원 점들로, 2차원 벡터로 표현될 수 있다.Where c 1 is the main face feature point in the first area, c 2 is the first sub face feature point in the first area, c 3 is the second sub face feature point in the first area, and d 1 is calculated in the second area The face matching target point, d 2, is a first sub face matching point that matches c 2 in the second region, and d 3 is a second sub face matching point that matches c 3 in the second region. In this case, each point, that is, c 1 , c 2 , c 3 , d 1 , d 2, and d 3 may be represented by two-dimensional vectors as two-dimensional points.
한편, 정면 영상에서 삼각형을 형성하여 대칭 기준 부합 여부를 판단하나, 정면 영상에서 얼굴의 중심선을 기준으로 좌 영역과 우 영역은 완벽한 대칭을 이루지 않는다. 따라서, 약간의 비대칭성이 존재하므로 이를 고려하여 비례 상수를 통해 좌 영역과 우 영역 간의 비대칭성을 보상해줌으로써, 안면 매칭 대상점을 산출할 수 있다. On the other hand, by forming a triangle in the front image to determine whether the symmetry criteria are met, the left region and the right region based on the center line of the face in the front image does not achieve perfect symmetry. Therefore, since there is a slight asymmetry, the face matching target point can be calculated by compensating for the asymmetry between the left region and the right region through a proportional constant in consideration of this.
상기 수학식에 의해 안면 매칭 대상점이 산출되면, 제어부(150)는 안면 매칭 대상점의 영역을 제1 영역에서 매칭되는 안면 특징점의 영역에 대응되도록 보간한다. When the face matching target point is calculated by the above equation, the
도 2는 본 발명의 일 실시예에 따른 정면 영상 교정 과정을 나타내는 개략도이다. 도 2를 참조하면, 카메라(110)를 통해 촬영된 정면 영상(200)에서, 제1 지점(P1), 제2 지점(P2) 및 제3 지점(P3)을 검출한다. 이 경우, 제1 및 제2 지점(P1, P2)은 양쪽 눈동자 중심점이며, 제3 지점(P3)은 입의 중심점이다. 제1 내지 제3 지점(P1, P2, P3)의 검출은 정면 영상(200)에서 색상 정보를 이용하여 이루어질 수 있다. 2 is a schematic diagram illustrating a front image calibration process according to an embodiment of the present invention. Referring to FIG. 2, a first point P 1 , a second point P 2 , and a third point P 3 are detected in the
구체적으로, 정면 영상(200)에서 얼굴 영역을 검출한다. 일반적으로 얼굴 영역에 피부색(살색)이 많이 분포되는 점을 이용하여, 정면 영상의 각 픽셀에서 피부색을 검색하여 얼굴 영역을 검출한다. In detail, the face area is detected in the
그리고 나서, 얼굴 영역에서 양쪽의 눈동자 영역을 검출한다. 일반적으로 눈동자 영역이 검은색인 것을 참고하여 얼굴 영역의 각 픽셀에서 검은색을 검색하여 양쪽 눈동자의 중심점인 제1 지점(P1) 및 제2 지점(P2)을 검출할 수 있게 된다. 이 같은 방법으로 입술 영역을 검출하고 입술의 양끝점에서 중앙지점을 제3 지점(P3)으로 검출할 수 있게 된다. 이 경우, 얼굴 영역에서 눈동자 영역과 입술 영역을 검출하는 방법은 색상 정보를 이용하는 것 외에, 얼굴을 구성하는 구성 요소의 일반적인 위치 정보를 더 이용할 수도 있다.Then, both eye regions are detected in the face region. In general, the eye region is black, so that each pixel of the face region may be searched for black to detect the first point P 1 and the second point P 2 , which are the center points of both eyes. In this way it is possible to detect the lip region and to detect the center point at the third end point P 3 at both ends of the lip. In this case, the method of detecting the pupil area and the lip area in the face area may further use general location information of the components constituting the face, in addition to using the color information.
제1 내지 제3 지점(P1, P2, P3)이 검출되면, 제1 지점(P1)과 제2 지점(P2), 제2 지점과(P2)과 제3 지점(P3) 그리고 제3 지점(P3)과 제1 지점(P1)을 각각 연결하여 삼각형을 형성한다. 그리고, 삼각형에서 제1 지점(P1)과 제2 지점(P2)을 연결한 일 변(L)이 지면(여기서는, 정면 영상의 수평선:H)과 평행인지를 1차 판단한다. 이 경우, 삼각형의 일 변(L)과 지면은 정확히 평행을 이루는 것이 바람직하나, ±1~5% 내의 오차 범위를 갖는 경우에도 평행하다고 판단할 수 있다. When the first to third points P 1 , P 2 , and P 3 are detected, the first point P 1 , the second point P 2 , the second point P 2 , and the third point P 3 ) Then, the third point P 3 and the first point P 1 are connected to form a triangle. In addition, it is first determined whether one side L connecting the first point P 1 and the second point P 2 in the triangle is parallel to the ground (here, the horizontal line H of the front image). In this case, it is preferable that one side L of the triangle and the ground be exactly parallel, but it can be determined to be parallel even when the error range is within ± 1 to 5%.
1차 판단의 결과, 제1 지점(P1)과 제2 지점(P2)을 연결한 일 변(L)이 지면(H)과 평행한 것으로 판단되면, 삼각형의 중심선(C1)을 기준으로 삼각형의 좌우가 대칭인지를 2차 판단한다. 삼각형의 좌우 대칭은 삼각형의 중심선을 기준으로 대칭하는 양변과 양꼭지점의 위치가 일치하는지를 확인하여 판단할 수 있다. 이 경우, 삼각형의 양변과 양꼭지점의 위치가 정확히 일치하는 것이 바람직하나, 이 역시 ±1~5% 내의 오차 범위를 갖는 경우에도 일치하다고 판단할 수 있다. As a result of the first determination, when it is determined that one side L connecting the first point P 1 and the second point P 2 is parallel to the ground H, the center line C1 of the triangle is referred to. The second judgment is whether the left and right triangles are symmetrical. The left and right symmetry of the triangle can be determined by checking whether the positions of both sides of the triangle and the positions of the vertices coincide with each other based on the center line of the triangle. In this case, it is preferable that the positions of both sides of the triangle and the positions of the vertices are exactly the same, but it can also be determined that the case also has an error range within ± 1-5%.
2차 판단의 결과, 삼각형의 좌우가 대칭되면 정면 영상의 교정이 완료된 것으로 보고 디스플레이 화면 상에 정면 영상의 교정 완료를 알리는 메시지를 출력한다. As a result of the second determination, when the left and right sides of the triangle are symmetrical, the front image is corrected, and a message indicating that the front image is corrected is output on the display screen.
반면, 삼각형에서 제1 지점(P1)과 제2 지점(P2)을 연결한 일 변(L)이 지면과 평행하지 않거나 삼각형의 중심선을 기준으로 좌우가 대칭되지 않는 것으로 판단되면, 디스플레이 화면 상에 정면 영상의 교정이 필요함을 알리는 메시지를 출력하여 정면 영상이 재촬영되도록 한다. 그리고, 재촬영된 정면 영상을 이용하여 삼각형의 대칭 기준 부합 여부를 다시 판단하여 정면 영상을 교정한다.On the other hand, if one side L connecting the first point P 1 and the second point P 2 in the triangle is not parallel to the ground or is not symmetrical with respect to the center line of the triangle, the display screen A message indicating that the front image needs to be corrected is output on the screen so that the front image is retaken. The front image is corrected by re-determining whether the triangle meets the symmetry criterion using the rephotographed front image.
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 안면 특징점 검출 과정을 나타내는 개략도이다. 도 3a 내지 도 3c에서 중심선(C2, C3)은 도 2에 도시된 삼각형의 중심선(C1)과 동일한 것이나, 도면의 명확성을 위해서 삼각형은 도시하지 않았다. 3A to 3C are schematic diagrams illustrating a facial feature point detection process according to an embodiment of the present invention. In FIGS. 3A to 3C, the center lines C2 and C3 are the same as the center line C1 of the triangle shown in FIG. 2, but the triangle is not shown for clarity.
도 3a는 제1 영역에서 검출된 안면 특징점들을 이용하여 제2 영역에서 안면 매칭점을 검출하는 과정을 나타내는 도면이다. 도 3a를 참조하면, 중심선(C2)을 기준으로 교정된 정면 영상(300)을 제1 영역(A)과 제2 영역(B)으로 나눈다. 이 경우, 제1 영역(A)은 정면 영상(300)에서 좌 영역이 될 수 있으며, 제2 영역(B)은 우 영역이 될 수 있다. 3A is a diagram illustrating a process of detecting a face matching point in a second area by using face feature points detected in the first area. Referring to FIG. 3A, the
안면 영상 촬영 장치(100)는 제1 영역(A)에서 귀 위치 정보(a1, a3), 눈썹의 위치 정보(a2) 및 코 위치 정보(a4)를 포함하는 안면 특징점을 검출한다. 그리고 나서, 중심선(C2)을 대칭으로 제1 영역(A)의 안면 특징점들을 제2 영역(B)에 매칭시켜 안면 매칭점들을 검출한다. 구체적으로, 도 3a에 도시된 것과 같이, 제1 영역(A)의 중심선(C2)를 기준으로 제1 영역(A)의 눈썹 위치 정보(a2)에 대응되는 지점 을 제2 영역(B)에서 검색한다. 그리고, 검색된 지점을 중심으로 소정 크기의 직사각형 영역(점선 표시 영역)을 형성하여 그 안에서 안면 매칭점(b2)를 검출할 수 있게 된다. 이 같은 방법을 이용하여 제1 영역(A)에서 귀 위치 정보(a1, a3)에 매칭되는 안면 매칭점(b1, b3)과 코 위치 정보(a4)에 매칭되는 안면 매칭점(b4)을 더 검출할 수 있게 된다. The
도 3b 및 도 3c는 제2 영역에서 안면 매칭점이 검출되지 않은 경우에 안면 매칭점을 검출하는 과정을 나타낸 도면이다. 도 3b를 참조하면, 정면 영상(400)에는 이미지 손상 영역(R)이 존재한다. 3B and 3C illustrate a process of detecting a face matching point when the face matching point is not detected in the second region. Referring to FIG. 3B, an image damage area R exists in the
정면 영상(400) 촬영시 외부 환경이나 영상 잡음에 의해 일부 영역이 미촬영될 수 있다. 이에 따라, 정면 영상(400)에 이미지 손상 영역(R)이 포함될 수 있다.이 같이 정면 영상(400) 내에 이미지 손상 영역(R)이 포함되는 경우, 안면 특징점이 명확하게 출력되지 않을 수 있다. 따라서, 이미지 손상 영역(R)의 안면 특징점을 검출하는 과정이 필요하다.When photographing the
먼저, 제1 영역(C)에서 안면 특징점(c1, c2, c3, c4)를 검출한다. 그리고 나서, 중심선(C3)을 기준으로 제1 영역(C)의 안면 특징점들을 제2 영역(D)에 매칭시켜 안면 매칭점들을 검출한다. 이 경우, 제1 영역(C)의 안면 특징점 c2, c3 및 c4에 매칭되는 안면 매칭점 d2, d3 및 d4는 검출되었으나, 이미지 손상 영역(R)에 의해 c1 에 매칭되는 안면 매칭점은 검출되지 않았다. 따라서, 검출되지 않은 안면 매칭점을 안면 매칭 대상점(d1)으로 설정하고 수학식 1을 이용하여 안면 매칭 대상점(d1)을 산출한다. First, facial feature points c 1 , c 2 , c 3 , and c 4 are detected in the first region C. FIG. Then, the face matching points are detected by matching the facial feature points of the first area C with the second area D based on the center line C3. In this case, the face matching points d 2 , d 3, and d 4 matching the facial feature points c 2 , c 3, and c 4 of the first region C were detected, but matched to c 1 by the image damage region R. No facial matching point was detected. Therefore, setting the face matching points that are not detected by the face matching the target point (d 1) and by using Equation 1 calculates the face matching the target point (d 1).
안면 매칭 대상점(d1)을 산출하기 위해, 필요한 점들을 설정한다. 구체적으로, 제1 영역(C)의 안면 특징점 c1은 산출하고자 하는 안면 매칭 대상점(d1)과 매칭되는 것이므로, 이 안면 특징점 c1을 메인 안면 특징점으로 설정하고 여기에 가장 인접한 c2 및 c3를 제1 및 제2 서브 안면 특징점으로 설정한다. 또한, 제1 및 제2 서브 안면 특징점에 각각 매칭되는 d2 및 d3을 제1 및 제2 서브 안면 매칭점으로 설정한다. 도 3c는 도 3b에서 정면 영상을 삭제하여 안면 매칭 대상점(d1)을 산출하기 위해 필요한 점만을 도시한 것이다. In order to calculate the face matching target point d 1 , necessary points are set. Specifically, since the facial feature point c 1 of the first region C matches the facial matching target point d 1 to be calculated, the facial feature point c 1 is set as the main facial feature point, and c 2 and Set c 3 as the first and second sub facial feature points. Further, d 2 and d 3 , which match each of the first and second sub face feature points, are set as the first and second sub face matching points, respectively. FIG. 3C illustrates only points necessary for calculating the face matching target point d 1 by deleting the front image in FIG. 3B.
상기와 같이 설정된 각 점들의 좌표값을 수학식 1에 대입하여 안면 매칭 대상점(d1)을 산출한다. 이 경우, 각 점의 좌표값에서 x좌표값은 중심선(C3)을 기준으로 우측이 양의 증가값을 가지며, 좌측이 음의 감소값을 갖는다. 그리고, y좌표값은 모두 같은 방향성을 갖는다. 또한, 수학식 1에 각 점들의 좌표값을 대입하는 경우, x좌표값은 절대값을 대입할 수 있다. The face matching target point d 1 is calculated by substituting the coordinate values of the respective points set as described above in Equation 1. In this case, the x-coordinate value in the coordinate value of each point has a positive increase value on the right side and the negative decrease value on the left side of the center line C3. The y coordinate values all have the same directionality. In addition, when the coordinate value of each point is substituted in Equation 1, the x coordinate value may be substituted for the absolute value.
위와 같은 방법으로 이미지 손상 영역(R) 내에 위치하는 안면 매칭 대상점(d1)을 산출하여 보간한다. 구체적으로, 안면 매칭 대상점(d1)과 매칭되는 제1 영 역(C)의 안면 특징점(c1)의 픽셀값에 대응되도록 안면 매칭 대상점(d1)의 픽셀값을 보간하여 정면 영상(400)에서 안면 특징점들이 모두 표시될 수 있도록 한다.In this manner, the face matching target point d 1 located in the image damage area R is calculated and interpolated. Specifically, the front image (interface image) is interpolated by interpolating pixel values of the face matching target point d1 to correspond to the pixel value of the facial feature point c 1 of the first area C matching the face matching target point d 1 . 400, all facial feature points can be displayed.
도 4는 도 1에 도시된 안면 영상 촬영장치의 안면 특징점 검출 방법을 설명하기 위한 흐름도이다. 먼저, 안면 영상 촬영장치(100)는 대상 인물(사람)의 정면 영상을 촬영한다(S510). FIG. 4 is a flowchart illustrating a method for detecting facial feature points of the facial imaging apparatus illustrated in FIG. 1. First, the facial
다음, 안면 영상 촬영장치(100)는 촬영된 정면 영상에서 제1 내지 제3 지점을 검출한다(S515). 구체적으로, 정면 영상에서 양쪽 눈동자의 중심점인 제1 및 제2 지점을 검출하고, 입의 중심점인 제3 지점을 검출한다. 그리고, 제1 내지 제3 지점을 서로 연결하여 삼각형을 형성한다(S520).Next, the facial
이 후, 안면 영상 촬영장치(100)는 제1 내지 제3 지점을 서로 연결하여 형성된 삼각형이 대칭 기준에 부합되는지 여부를 판단한다(S525). 구체적으로, 삼각형의 일 변, 즉, 제1 및 제2 지점을 연결한 변이 지면과 평행인지를 판단하고, 평행하는 경우에는 삼각형 중심선을 기준으로 좌우가 대칭인지를 판단한다. Thereafter, the
S525 에서의 판단 결과, 삼각형이 대칭 기준에 부합되지 않는 경우, 디스플레이 화면 상에 정면 영상의 교정을 요구하는 메시지를 출력한다(S535). 그리고, 교정된 정면 영상을 재촬영하여(S540), S515 내지 S525 단계를 다시 수행한다. As a result of the determination in S525, when the triangle does not meet the symmetry criterion, a message requesting correction of the front image is output on the display screen (S535). Then, the corrected front image is retaken (S540), and steps S515 to S525 are performed again.
상술한 과정에 의해서 정면 영상에서 형성된 삼각형이 대칭 기준에 부합되는 것으로 판단되면, 디스플레이 화면 상에 정면 영상에 대한 교정이 완료되었음을 알 리는 메시지를 출력한다(S530).If it is determined by the above-described process that the triangle formed in the front image meets the symmetry standard, a message indicating that the calibration for the front image is completed is output on the display screen (S530).
한편, 안면 영상 촬영장치(100)는 교정된 정면 영상을 이용하여 안면 특징점을 검출한다. 구체적으로, 정면 영상에서 삼각형의 중심선을 기준으로 제1 영역에서의 안면 특징점을 검출한다(S545). 이 경우, 제1 영역은 삼각형의 중심점을 기준으로 좌 영역 및 우 영역 중 어느 하나가 될 수 있다. Meanwhile, the
다음, 제1 영역에 대칭되는 제2 영역에서, 제2 영역의 안면 특징점에 매칭되는 안면 매칭점을 검출한다(S550). 이 과정을 통해 제1 영역의 안면 특징점에 매칭되는 안면 매칭점들이 모두 검출되었으면(S555), 안면 특징점 검출을 종료한다. Next, in a second area symmetrical to the first area, a face matching point matching the face feature point of the second area is detected (S550). If all face matching points matching the face feature points of the first region are detected through this process (S555), the face feature point detection is terminated.
그러나, 제2 영역에서 안면 매칭점들이 모두 검출되지 않은 경우에는(S555), 제1 영역의 안면 특징점에 매칭되는 안면 매칭 대상점을 검출한다(S560). 이 경우, 안면 매칭점의 검출은 앞서 기재한 수학식 1에 의해 이루어질 수 있다. 그리고, 안면 매칭 대상점이 검출되면, 해당하는 안면 특징점에 대응되도록 보간한다. 위와 같은 방법을 이용하여 안면 특징점을 보다 빠르게 검출할 수 있다. However, when all of the face matching points are not detected in the second area (S555), a face matching target point matching the face feature point of the first area is detected (S560). In this case, the face matching point may be detected by Equation 1 described above. When the facial matching target point is detected, the interpolation is performed to correspond to the corresponding facial feature point. By using the above method, facial feature points can be detected more quickly.
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명 의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the above has been illustrated and described with respect to the preferred embodiments of the present invention, the present invention is not limited to the above-described specific embodiments, it is common in the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present invention.
도 1은 본 발명의 일 실시예에 따른 안면 영상 촬영장치를 나타내는 블럭도, 1 is a block diagram showing a face image photographing apparatus according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른 정면 영상 교정 과정을 나타내는 개략도, 2 is a schematic diagram showing a front image correcting process according to an embodiment of the present invention;
도 3a 내지 도 3c는 본 발명의 일 실시예에 따른 안면 특징점 검출 과정을 나타내는 개략도, 그리고,3A to 3C are schematic diagrams illustrating a facial feature point detection process according to an embodiment of the present invention;
도 4는 도 1에 도시된 안면 영상 촬영장치의 안면 특징점 검출 방법을 설명하기 위한 흐름도이다.FIG. 4 is a flowchart illustrating a method for detecting facial feature points of the facial imaging apparatus illustrated in FIG. 1.
< 도면의 주요 부분에 대한 부호 설명><Description of Signs for Main Parts of Drawings>
100 : 안면 영상 촬영장치 110 : 카메라100: facial video recording device 110: camera
120 : 디스플레이부 130 : 제1 검출부120: display unit 130: first detection unit
140 : 제2 검출부 150 : 제어부140: second detection unit 150: control unit
160 : 메모리160: memory
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090042061A KR100930594B1 (en) | 2009-05-14 | 2009-05-14 | The system for capturing 2d facial image and extraction method of face feature points thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090042061A KR100930594B1 (en) | 2009-05-14 | 2009-05-14 | The system for capturing 2d facial image and extraction method of face feature points thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100930594B1 true KR100930594B1 (en) | 2009-12-09 |
Family
ID=41683985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090042061A KR100930594B1 (en) | 2009-05-14 | 2009-05-14 | The system for capturing 2d facial image and extraction method of face feature points thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100930594B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101085435B1 (en) | 2009-12-30 | 2011-11-21 | 안동대학교 산학협력단 | System for recognizing a face using multi camera |
KR20180099133A (en) | 2017-02-28 | 2018-09-05 | 황현욱 | Facial imaging device using gyro sensor |
CN110520905A (en) * | 2017-04-14 | 2019-11-29 | 韩国韩医学研究院 | Face posture apparatus for correcting and method |
KR20200129602A (en) * | 2019-05-09 | 2020-11-18 | 가천대학교 산학협력단 | Method And System For Deducting Facial Asymmetry Information |
KR20230057585A (en) | 2021-10-22 | 2023-05-02 | 신성대학교 산학협력단 | System and method for predicting stroke using biosignals |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050027313A (en) * | 2003-09-15 | 2005-03-21 | 엘지전자 주식회사 | An image display device having function for controlling volume level according to speaker location and method thereof |
KR20060074694A (en) * | 2004-12-28 | 2006-07-03 | 삼성전자주식회사 | Apparatus and method for photographing picture based on face detection in portable camera |
KR20060124204A (en) * | 2005-05-31 | 2006-12-05 | 주식회사 팬택 | Portable device for tracking pupil position of user`s eye and method therefor |
-
2009
- 2009-05-14 KR KR1020090042061A patent/KR100930594B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050027313A (en) * | 2003-09-15 | 2005-03-21 | 엘지전자 주식회사 | An image display device having function for controlling volume level according to speaker location and method thereof |
KR20060074694A (en) * | 2004-12-28 | 2006-07-03 | 삼성전자주식회사 | Apparatus and method for photographing picture based on face detection in portable camera |
KR20060124204A (en) * | 2005-05-31 | 2006-12-05 | 주식회사 팬택 | Portable device for tracking pupil position of user`s eye and method therefor |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101085435B1 (en) | 2009-12-30 | 2011-11-21 | 안동대학교 산학협력단 | System for recognizing a face using multi camera |
KR20180099133A (en) | 2017-02-28 | 2018-09-05 | 황현욱 | Facial imaging device using gyro sensor |
CN110520905A (en) * | 2017-04-14 | 2019-11-29 | 韩国韩医学研究院 | Face posture apparatus for correcting and method |
CN110520905B (en) * | 2017-04-14 | 2023-06-20 | 韩国韩医学研究院 | Face posture correcting device and method |
KR20200129602A (en) * | 2019-05-09 | 2020-11-18 | 가천대학교 산학협력단 | Method And System For Deducting Facial Asymmetry Information |
KR102260964B1 (en) | 2019-05-09 | 2021-06-03 | 가천대학교 산학협력단 | Method And System For Deducting Facial Asymmetry Information |
KR20230057585A (en) | 2021-10-22 | 2023-05-02 | 신성대학교 산학협력단 | System and method for predicting stroke using biosignals |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11576645B2 (en) | Systems and methods for scanning a patient in an imaging system | |
US11576578B2 (en) | Systems and methods for scanning a patient in an imaging system | |
EP3651457B1 (en) | Pupillary distance measurement method, wearable eye equipment and storage medium | |
KR100930594B1 (en) | The system for capturing 2d facial image and extraction method of face feature points thereof | |
KR101978548B1 (en) | Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same | |
US9183634B2 (en) | Image processing apparatus and image processing method | |
JP6290723B2 (en) | Surgery support device and surgery support system | |
KR102450236B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
US20180342074A1 (en) | Method of operating measurement device, measurement device, measurement system, three-dimensional shape restoration device, and recording medium | |
KR100982171B1 (en) | The System for Capturing 2D Facial Image | |
CN111563924A (en) | Image depth determination method, living body identification method, circuit, device, and medium | |
TWI557601B (en) | A puppil positioning system, method, computer program product and computer readable recording medium | |
CN111854620A (en) | Monocular camera-based actual pupil distance measuring method, device and equipment | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
CN114415826A (en) | Data processing method and equipment thereof | |
CN111047678B (en) | Three-dimensional face acquisition device and method | |
JP2011248655A (en) | User viewpoint spatial image provision device, user viewpoint spatial image provision method, and program | |
JP2015103991A (en) | Image processing apparatus, method and computer program | |
JP2006285531A (en) | Detection device for eye direction, detecting method for eye direction, program for executing the same detecting method for eye direction by computer | |
CA3187876A1 (en) | System and method for automatic personalized assessment of human body surface conditions | |
JP5958082B2 (en) | Image processing apparatus and image processing method | |
JP4871315B2 (en) | Compound eye photographing apparatus, control method therefor, and program | |
JP2020006152A (en) | Head image analyzer and image analysis method | |
JP2011217229A (en) | Imaging apparatus and display method | |
US9501840B2 (en) | Information processing apparatus and clothes proposing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130529 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20131105 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20141202 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20151014 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20161110 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20171102 Year of fee payment: 9 |
|
LAPS | Lapse due to unpaid annual fee |