KR20190097494A - Electronic devices and methods thereof - Google Patents
Electronic devices and methods thereof Download PDFInfo
- Publication number
- KR20190097494A KR20190097494A KR1020180016984A KR20180016984A KR20190097494A KR 20190097494 A KR20190097494 A KR 20190097494A KR 1020180016984 A KR1020180016984 A KR 1020180016984A KR 20180016984 A KR20180016984 A KR 20180016984A KR 20190097494 A KR20190097494 A KR 20190097494A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- landmark
- weight
- face
- electronic device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G06K9/00201—
-
- G06K9/00302—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Transportation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Image Analysis (AREA)
Abstract
Description
본 개시는 전자 장치 및 그의 제어방법에 관한 것으로, 더욱 상세하게는 사용자 얼굴에 랜드마크를 설정하여 머리자세를 추정하는 전자 장치 및 그의 제어방법에 대한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device and a control method for estimating a head posture by setting a landmark on a user's face.
최근 비디오 영상에서 얼굴을 탐지하고 추적, 인식하기 위한 많은 연구들이 진행되고 있었다. 사용자의 머리 자세를 식별하는 기술은 얼굴 인식, 표정 인식, 영상 모델링 등 다양한 컴퓨터 비전(computer vision) 분야에서 매우 중요하다. Recently, many studies have been conducted to detect, track, and recognize faces in video images. Technology for identifying a user's head posture is very important in various computer vision fields such as face recognition, facial expression recognition, and image modeling.
종래에 사용자의 머리 자세를 추정하기 위해서 미리 저장하고 있는 복수개의 샘플과 비교하였다. 그리고 현재 촬상 되는 이미지와 가장 비슷한 샘플을 찾아 사용자의 머리 자세를 추정하였다. 이러한 방식은 사용자의 표정이 변하지 않는 일반적인 상황에서 비교적 높은 정확도를 가질 수 있다. 하지만, 사용자가 대화를 하거나, 감정 표현을 하는 경우 등 다양한 상황으로 인한 사용자의 얼굴 변화를 반영할 수 없는 문제점이 있었다. In order to estimate the head posture of the user, a comparison is made with a plurality of samples stored in advance. The user's head posture was estimated by finding the sample most similar to the current image. This approach may have a relatively high accuracy in general situations where the user's facial expression does not change. However, there is a problem in that the user's face change due to various situations such as when the user talks or expresses emotions cannot be reflected.
예를 들어, 종래의 방법은 사용자의 머리 자세가 일정하게 유지되어도 대화를 하면서 턱이 움직이거나 눈을 감는 등 표정이 변하면 사용자의 머리 자세를 다르게 식별하는 문제점이 있었다. For example, the conventional method has a problem in that the head posture of the user is differently identified when the facial expression is changed, such as the jaw moving or closing the eyes, while the head posture of the user is kept constant.
또한, 종래의 방법은 다양한 샘플을 저장해야 하기 때문에 큰 용량의 메모리 및 빠른 연산속도를 갖는 프로세서가 필요하였다. 따라서 고가 및 고성능의 연산 시스템이 필요하다는 문제점이 있었다.In addition, the conventional method required a processor having a large memory capacity and a high computational speed because a variety of samples must be stored. Therefore, there is a problem that a high cost and high performance computing system is required.
본 개시는 상술한 문제를 개선하기 위해 고안된 것으로, 본 개시의 목적은 복수개의 랜드마크를 설정하여 가중치를 다르게 부여하여 머리 자세를 추정하는 전자 장치 및 그의 제어방법을 제공함에 있다.The present disclosure is devised to improve the above-described problem, and an object of the present disclosure is to provide an electronic device and a control method thereof for estimating a head posture by setting a plurality of landmarks and giving different weights.
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 촬상부, 기정의된 특징점을 나타내는 랜드마크에 대응되는 가중치가 저장된 메모리, 상기 촬상부에 의해 촬영된 영상에서 사용자의 얼굴을 식별하고, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고, 상기 식별된 랜드마크에 대응되는 가중치를 상기 메모리로부터 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 프로세서를 포함하며, 상기 메모리에 저장된 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.According to an embodiment of the present invention, an electronic device is provided that includes: an imager, a memory storing a weight corresponding to a landmark representing a predetermined feature point, a face of a user in an image photographed by the imager, A processor for identifying a landmark among the identified facial feature points of the user, obtaining a weight corresponding to the identified landmark from the memory, and applying the obtained weight to the landmark to identify the head posture of the user And a weight stored in the memory is given a relatively small weight to a landmark having a lot of movement.
이 경우, 상기 프로세서는 상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In this case, the processor may identify the head posture of the user by applying the weight to a difference value between the landmark of the user's face and the landmark of the reference face data.
또한, 상기 프로세서는 상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다. In addition, the processor may apply a weight that is relatively smaller than other landmarks to the landmarks constituting the outside of the face among the identified landmarks of the user.
또한, 상기 프로세서는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the processor assigns a first weight to a landmark corresponding to at least one of eyes, an eyebrow, and a nose with less movement, and a second weight less than the first weight to a landmark corresponding to at least one of a mouth and a jaw. Can be given.
또한, 상기 랜드마크는 3차원 위치 정보를 포함하고, 상기 프로세서는 상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.The landmark may include three-dimensional location information, and the processor may identify a head posture of the user by applying a Perspective n Point (PnP) method to the three-dimensional location information.
또한, 상기 전자 장치는 차량에 구비된 장치이며, 상기 프로세서는 상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적할 수 있다.The electronic device may be a device provided in a vehicle, and the processor may track at least one of a driver's state and a driver's gaze based on the identified head posture of the user.
또한, 상기 프로세서는 상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.The processor may acquire a degree of movement of the landmark identified on the face of the user, and map a relatively large weight to a landmark having a relatively high degree of movement and store the weight.
한편, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 제어 방법은 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계를 포함하며, 상기 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.Meanwhile, a control method of an electronic device for storing a weight corresponding to a landmark representing a predefined feature point according to an embodiment of the present disclosure may include identifying a face of a user in a captured image, and identifying the face feature point of the identified user. Identifying a landmark and obtaining a weight corresponding to the identified landmark, and applying the obtained weight to the landmark to identify a head posture of the user. Relatively small landmarks are given relatively small weights.
이 경우, 상기 사용자의 머리 자세를 식별하는 단계는 상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In this case, the step of identifying the head pose of the user may identify the head pose of the user by applying the weight to a difference value between the landmark of the user's face and the landmark of the reference face data.
또한, 상기 사용자의 머리 자세를 식별하는 단계는 상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다.In the identifying of the user's head posture, a weight that is relatively smaller than other landmarks may be applied to a landmark constituting the outside of the face among the identified landmarks of the user.
또한, 상기 사용자의 머리 자세를 식별하는 단계는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the identifying of the user's head posture may include assigning a first weight to a landmark corresponding to at least one of eyes, eyebrows, and nose having less movement, and applying the first weight to a landmark corresponding to at least one of a mouth and a chin. A second weight less than one weight can be given.
또한, 상기 랜드마크는 3차원 위치 정보를 포함하고, 상기 사용자의 머리 자세를 식별하는 단계는 상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In addition, the landmark includes three-dimensional location information, and the step of identifying the head pose of the user may identify the head pose of the user by applying a perspective n point (PnP) method to the three-dimensional location information. .
또한, 상기 전자 장치는 차량에 구비된 장치이며, 상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계를 더 포함할 수 있다.In addition, the electronic device is a device provided in a vehicle, and may further include tracking at least one of a driver's state and a driver's gaze based on the identified head posture of the user.
또한, 상기 사용자의 머리 자세를 식별하는 단계는 상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.In the identifying of the user's head posture, the movement degree of the landmark identified in the face of the user may be obtained, and the weight may be mapped to a relatively large landmark and stored.
한편, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체는 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계를 포함하며, 상기 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.Meanwhile, when executed by a processor of an electronic device that stores a weight corresponding to a landmark representing a predefined feature point, a non-transitory storing computer instructions for causing the electronic device to perform an operation. The computer readable medium may further include identifying a face of the user in the captured image, identifying a landmark among the identified facial feature points of the user, and obtaining a weight corresponding to the identified landmark, and obtaining the weighted value. And identifying the head posture of the user by applying to the landmark, wherein the weight is given a relatively small weight to a landmark having a relatively high movement.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도,
도 2는 사용자의 얼굴을 식별하는 방법을 설명하기 위한 도면,
도 3은 사용자 얼굴 이미지에 랜드마크를 설정하는 방법을 설명하기 위한 도면,
도 4는 랜드마크를 그룹핑하는 방법을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 머리 자세를 추정하는 방법을 설명하기 위한 도면,
도 6은 랜드마크에 가중치를 부여하는 방법을 설명하기 위한 도면,
도 7은 PnP(Perspective n Point)를 설명하기 위한 도면, 그리고
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.1 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure;
2 is a view for explaining a method of identifying a face of a user;
3 is a view for explaining a method for setting a landmark in a user face image;
4 is a view for explaining a method of grouping landmarks;
5 is a view for explaining a method of estimating a head posture according to an embodiment of the present disclosure;
6 is a view for explaining a method for weighting a landmark;
7 is a view for explaining a perspective n point (PnP), and
8 is a diagram illustrating a control method of an electronic device according to an embodiment of the present disclosure.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다. Before describing this disclosure in detail, the description method of this specification and drawings is demonstrated.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected from the general terms in consideration of functions in various embodiments of the present disclosure, but these terms are defined by intention or legal or technical interpretation of those skilled in the art and It may vary depending on the emergence of new technologies. In addition, some terms are terms arbitrarily selected by the applicant. Such terms may be interpreted in the meanings defined herein, and may be interpreted based on the general contents of the present specification and common technical knowledge in the art without specific term definitions.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numerals or symbols described in each drawing attached to the present specification represent parts or components that perform substantially the same function. For convenience of explanation and understanding, different embodiments will be described using the same reference numerals or symbols. That is, although all the components having the same reference numerals are shown in the plurality of drawings, the plurality of drawings does not mean an embodiment.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Also, in the present specification and claims, terms including ordinal numbers such as “first”, “second”, and the like may be used to distinguish between components. These ordinal numbers are used to distinguish the same or similar components from each other, and the meaning of the terms should not be construed as limited by the use of these ordinal numbers. For example, the components combined with these ordinal numbers should not be limited in order of use or arrangement by the number. If necessary, the ordinal numbers may be used interchangeably.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular forms "a", "an" and "the" include plural forms unless the context clearly indicates otherwise. In this application, "includes." Or "made up." And the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features or numbers, step, action, component, part, or It should be understood that they do not preclude the presence or possibility of adding these in advance.
본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. The embodiments may be variously modified and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the scope to the specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the scope of the disclosed spirit and technology. In describing the embodiments, when it is determined that the detailed description of the related known technology may obscure the gist, the detailed description thereof will be omitted.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.
본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the scope. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, "includes." Or "made up." And the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features or numbers, step, action, component, part, or It should be understood that they do not preclude the presence or possibility of adding these in advance.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In the embodiments of the present disclosure, terms such as “module”, “unit”, “part”, and the like are terms for referring to a component that performs at least one function or operation, and such components are referred to as hardware or software. It may be implemented or a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except that each needs to be implemented with a particular specific hardware, and is at least one processor. It can be implemented as.
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a part includes a certain component means that it may further include other components, without excluding other components, unless specifically stated otherwise.
도 1은 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.1 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
도 1은 촬상부(101), 메모리(102) 및 프로세서(103)로 구성될 수 있다.1 may include an
촬상부(101)는 피사체를 촬상하여 촬상 영상을 생성하기 위한 구성이며, 여기서 촬상 영상은 동영상과 정지 영상 모두를 포함하는 개념이다.The
촬상부(101)는 적어도 하나의 외부 기기에 대한 이미지를 획득할 수 있으며, 카메라, 렌즈, 적외선 센서 등으로 구현될 수 있다.The
촬상부(101)는 렌즈와 이미지 센서를 포함할 수 있다. 렌즈의 종류에는 일반적인 범용 렌즈, 광각 렌즈, 줌 렌즈 등이 있으며, 전자 장치(100)의 종류, 특성, 사용 환경 등에 따라 결정될 수 있다. 이미지 센서로는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS)와 전하결합소자(Charge Coupled Device: CCD) 등이 사용될 수 있다.The
촬상부(101)는 입사된 빛을 영상 신호로 출력한다. 구체적으로, 촬상부(101)는 렌즈, 화소 및 AD 컨버터를 구비할 수 있다. 렌즈는 피사체의 빛을 모아서 촬상 영역에 광학상이 맺히게 하며, 화소는 렌즈를 통해 입상되는 빚을 아날로그 형태의 영상 신호로 출력할 수 있다. 그리고 AD 컨버터는 아날로그 형태의 영상 신호를 디지털 형태의 영상 신호로 변환하여 출력할 수 있다. The
특히, 촬상부(101)는 전자 장치(100)의 전면 방향을 촬상하도록 배치되어, 전자 장치(100)의 전면에 존재하는 사용자를 촬상하여 촬상 영상을 생성할 수 있다. In particular, the
한편, 본 개시의 일 실시 예에 따른 전자 장치(100)를 설명함에 있어 촬상부(101)가 한 개인 것으로 설명하고 있지만, 실제 구현 시에는 복수개의 촬상부가 배치될 수 있다. 전자 장치(100)는 복수개의 촬상부를 구비할 수 있고, 복수개의 촬상부를 통해 수신되는 영상을 결합하여 사용자의 머리 자세를 식별할 수 있다. 한 개의 촬상부(101)를 이용하는 것보다 복수개의 촬상부(101)를 이용하면 3차원적인 움직임을 더욱 정밀하게 분석할 수 있어 사용자의 머리 자세를 식별하는데 효과적일 수 있다. Meanwhile, in describing the
메모리(102)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 한편, 메모리는 전자 장치내의 저장 매체뿐만 아니라, 외부 저장 매체, 예를 들어, micro SD 카드, USB 메모리 또는 네트워크를 통한 웹 서버(Web server) 등으로 구현될 수 있다.The
구체적으로, 메모리(102)는 전자 장치(100)의 동작에 이용되는 데이터를 저장할 수 있으며, 메모리(102)는 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장할 수 있다. In detail, the
프로세서(103)는 전자 장치(100)의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 프로세서(103)는 얼굴의 특징점을 이용하여 사용자의 머리 자세를 식별할 수 있다. The
일 실시 예에 따라 프로세서(103)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(103)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.According to an embodiment, the
프로세서(103)는 사용자의 머리 자세를 식별할 수 있다. 여기서, 사용자의 머리 자세는 사용자의 머리의 위치 및 상태를 추정하는 것을 의미할 수 있다. 사용자의 머리가 어떠한 상태인지를 판단하고, 판단된 상태에 따라 사용자의 시선 검출, 동작 인식 및 졸음 검출 등을 식별할 수 있다. The
프로세서(103)가 사용자의 머리 자세를 식별하기 위해선 촬상부(101)에서 사용자의 얼굴 부분을 검출 할 수 있어야 한다. 구체적으로, 촬상부(101)에서 촬영된 영상에서 사람의 얼굴을 식별할 수 있어야 한다. In order to identify the posture of the user's head, the
촬상부(101)에서 촬영된 영상에서 사람의 얼굴을 식별하기 위해서 프로세서(103)는 촬영된 영상에서 특징점을 설정할 수 있다. 입력된 영상이 사람의 머리를 촬상한 영상인 경우를 가정하였을 때, 프로세서(103)는 얼굴 특징점(facial feature point)을 기 설정된 특징점으로 검출할 수 있다.The
프로세서(103)는 임의의 인간의 얼굴에 대하여 기 저장된 얼굴 모델을 촬상부(101)를 통해 입력된 영상에 적용하여 얼굴 특징점(facial feature point)을 검출할 수 있다. 얼굴 특징점이란, 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선 등에 대한 특징점을 의미한다. 얼굴 모델이란, 임의의 인간의 얼굴을 촬상한 영상을 입력하고, 수동 혹은 자동으로 각 영상에서의 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선 등에 대한 특징점을 선택하고, 선택된 점이 나타내는 얼굴 영역에 대한 정보를 입력하는 동작을 복수의 영상에 대하여 반복한 결과를 의미한다. The
이와 같이 얼굴 모델은, 얼굴 영상으로부터 획득될 수 있는 정보, 즉 얼굴 특징점의 위치에 대한 정보, 색상에 대한 정보, 텍스쳐에 대한 정보, 촬상 위치에 대한 정보 등에 기초한 얼굴 특징점의 3차원 정보와 색상 정보를 포함하고 있는 것이다.As described above, the face model includes three-dimensional information and color information of the facial feature point based on information that can be obtained from the face image, that is, information about the position of the facial feature point, information about the color, information about the texture, and information about the image pickup position. It is to include.
프로세서(103)는 이와 같이 얼굴 모델을 이용하는 다양한 알고리즘을 통하여 입력된 영상에서 얼굴 특징점을 자동으로 검출할 수 있다. 예컨대, AAM(Active Appearance Models) 또는 ASM(Active Shape Models)이 이용될 수 있다. The
ASM은 눈의 위치를 검출하고, 검출된 눈의 위치를 기준으로 일반적인 모델(generic model)에 따른 다른 부위 예를 들어 코, 입, 눈썹 등의 모양(shape) 정보를 이용하여 위치를 결정하는 모델이다. AAM은 모양 정보뿐만 아니라, 질감 정보(texture information)를 더욱 고려하여 얼굴 특징을 효율적으로 설명할 수 있는 특징점을 검출하는 모델이다.The ASM detects the position of the eye and determines the position using shape information of other parts of the generic model, such as nose, mouth, and eyebrows, based on the detected eye position. to be. AAM is a model that detects feature points that can effectively describe facial features by considering texture information as well as shape information.
AAM은 얼굴 형상(model) 벡터와 얼굴 표면 질감(texture) 벡터에 주성분 분석(PCA)을 적용하여 다양한 사람의 얼굴 통계를 이용하여 만들어진 표본 얼굴 모델에 워핑(warping)하여, 표본 얼굴의 데이터와 정규화된 영상(2D)의 얼굴 데이터의 오차 제곱을 최소화시킨다. 이 데이터를 이용하여 얼굴의 특징점을 찾는다. AAM은 속도 계산을 빨리 할 수 있고 트레킹(Tracking)이 가능하다는 장점이 있다.AAM applies principal component analysis (PCA) to face model vectors and face surface texture vectors to warn sample face models created using a variety of human face statistics to normalize the sample face data. The error square of the face data of the captured image 2D is minimized. Use this data to find facial feature points. AAM has the advantage of speed calculation and tracking.
AAM을 이용하는 경우, 프로세서(103)는 입력된 영상에 포함된 얼굴의 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선에 대한 특징점을 검출하는 정합(fitting)과정을 수행한다.When using the AAM, the
프로세서(103)는 이와 같은 과정을 통해 수신된 영상으로부터 사용자의 얼굴 특징점을 식별할 수 있다. The
한편, 프로세서(103)는 식별된 복수의 얼굴 특징점 가운데 특정 얼굴 특징점을 랜드마크로 설정할 수 있다. 하나의 영상에서 식별되는 얼굴 특징점이 복수 개 있는 경우, 복수의 얼굴 특징점 중에서 일부 특징점을 랜드마크로 설정할 수 있다. The
랜드마크는 복수의 얼굴 특징점 중 기 설정된 방식으로 선택된 얼굴 특징점일 수 있다. The landmark may be a facial feature point selected from a plurality of facial feature points in a preset manner.
본 개시의 일 실시 예에 따른 기 설정된 방식은 일정 간격마다 랜드마크로 설정하는 방식일 수 있다. 예를 들어, 턱선을 이루는 100개의 얼굴 특징점이 식별되었다고 가정한다. 이 경우, 100개의 얼굴 특징점 중 20개를 랜드마크로 설정할 수 있다. The preset method according to an embodiment of the present disclosure may be a method of setting a landmark at a predetermined interval. For example, suppose that 100 facial features that make up the jawline have been identified. In this case, 20 of the 100 facial feature points can be set as a landmark.
프로세서(103)는 순서대로 나열된 100개의 얼굴 특징점에서 5개당 1개의 얼굴 특징점을 랜드마크로 설정할 수 있다. The
100개의 얼굴 특징점에서 50개가 턱선을 이루는 얼굴 특징점이라고 가정한다. 턱선을 이루는 50개의 얼굴 특징점은 순서대로 배치되어 있을 것이다. 정확히 턱선을 이루는 50개의 얼굴 특징점은 U자형으로 배치되는 얼굴 특징점의 집합일 수 있다. 이 경우, 프로세서(103)는 순서대로 배치된 얼굴 특징점에서 5번째, 10번째, 15번째와 같이 5의 배수에 해당하는 얼굴 특징점을 랜드마크로 설정할 수 있다.It is assumed that 50 out of 100 facial feature points are facial feature points forming a jaw line. The 50 facial features that make up the jawline will be arranged in order. The fifty facial features that form exactly the jawline may be a set of facial features that are arranged in a U shape. In this case, the
식별된 50개의 턱선 특징점 중 일부(20개의 턱선 특징점)를 랜드마크로 설정하면 데이터 분석 및 처리 시간이 단축될 수 있다. 사용자의 머리 자세를 식별하기 위해선 사용자의 얼굴 특징점을 분석해야 하는데, 턱선 특징점50개를 분석하는 것보다 턱선 특징점20개를 분석한다면, 프로세서(103)가 사용자의 머리 자세를 추정하는데 걸리는 처리 시간이 단축될 수 있다.Setting some of the 50 identified jawline feature points (20 jawline feature points) as landmarks can reduce data analysis and processing time. To identify the user's head posture, the user's facial feature points must be analyzed. If the user analyzes 20 jawline features rather than 50 jawline features, the processing time for the
한편, 상술한 100, 20, 5의 숫자는 설명을 위한 예시에 불과하고 사용자의 설정 또는 전자 장치(100)의 성능에 따라 변경될 수 있다. The
또한, 프로세서(103)는 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고, 식별된 랜드마크에 대응되는 가중치를 메모리(102)로부터 획득할 수 있다. In addition, the
랜드마크에 대응되는 가중치는 미리 설정되어 있는 특정 값일 수 있다. 그리고, 랜드마크에 대응되는 가중치는 얼굴 특징점의 위치에 따라 다른 값을 가질 수 있다. 예를 들어, 동일한 턱선을 나타내는 랜드마크라고 하더라도 턱 끝 부분의 랜드마크에 더 작은 가중치를 적용할 수 있다. The weight corresponding to the landmark may be a predetermined value. The weight corresponding to the landmark may have a different value depending on the position of the facial feature point. For example, even if the landmark represents the same jawline, a smaller weight may be applied to the landmark at the tip of the jaw.
도 3을 참고하면, 복수개의 랜드마크 가운데 턱 끝 부분의 랜드마크 (10번), 입가에 해당하는 랜드마크(49번 및 55번) 그리고 눈가에 해당하는 랜드마크(37번, 40번, 43번, 46번)에 더 작은 가중치를 적용할 수 있다. Referring to FIG. 3, a landmark (No. 10) at the tip of the jaw, a landmark (49 and 55) corresponding to the corner of the mouth, and a landmark (No. 37, 40, 43) corresponding to the eyes are shown. And 46).
상기 언급한 랜드마크(10,37,40,43,46,49,55번)들은 상대적으로 움직임이 많은 랜드마크에 해당할 수 있다. 프로세서(103)는 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 적용할 수 있다. 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 적용하는 이유는 사용자의 머리 자세를 더욱 정확하게 식별하기 위함이다. 사용자의 머리자세가 변하지 않았음에도 움직임이 많은 랜드마크에 의해 잘못 식별되는 경우가 있을 수 있다.The above-mentioned
예를 들어, 사용자가 정면을 바라 보고 있는 동작을 유지하고 있다고 가정한다. 사용자는 정면을 바라보고 있지만, 대화 중 크게 웃는 다면 입가, 턱끝, 눈가 부분이 다른 부분보다 더 많이 움직일 것이다. 이 경우, 사용자의 랜드마크를 파악하는 프로세서(103)는 사용자의 머리 자세가 정면을 바라보고 있음에도 불구하고 잘못 식별할 가능성이 높다. 프로세서(103)는 사용자의 머리 자세를 식별하기 위해 랜드마크를 이용하기 때문에, 특정 랜드마크의 움직임에 의해 식별 결과가 좌우될 가능성이 높다. For example, suppose that the user maintains the motion of looking at the front. The user is looking straight ahead, but if he smiles loudly during the conversation, his mouth, chin, and eyes will move more than the rest. In this case, the
이러한 문제를 해결하기 위하여 프로세서(103)는 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 부여할 수 있다. 그리고, 프로세서(103)는 획득된 가중치를 랜드마크에 적용하여 사용자의 머리 자세를 식별할 수 있다. In order to solve such a problem, the
또한, 프로세서(103)는 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다. In addition, the
또한, 프로세서(103)는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the
이 경우, 프로세서(103)는 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 가중치를 적용하여 사용자의 머리 자세를 식별할 수 있다. In this case, the
기준 얼굴 데이터란 사용자의 머리 자세를 식별하기 위해 기준이 되는 데이터를 의미할 수 있다. 구체적으로, 기준 얼굴 데이터란 사용자의 머리 자세에 따른 랜드마크 (또는 얼굴 특징점)를 저장하고 프로세서(103)에서 식별되는 랜드마크와 비교될 수 있다. 기준 얼굴 데이터는 적어도 한 개 이상의 데이터를 포함할 수 있다.The reference face data may refer to data which is a reference for identifying a posture of a user. In detail, the reference face data may store landmarks (or facial feature points) according to a user's head posture and may be compared with landmarks identified by the
프로세서(103)는 기 저장된 복수의 기준 얼굴 데이터에 포함된 정보를 프로세서(103)가 식별한 랜드마크와 비교하여 가장 차이가 적은 기준 얼굴 데이터를 식별할 수 있다. 예를 들어, 비교된 랜드마크의 위치 정보의 차이가 가장 적은 기준 얼굴 데이터를 식별하면 프로세서(103)는 사용자가 기준 얼굴 데이터에 대응되는 머리 자세를 현재 취하고 있다고 추측할 수 있다. The
또한, 프로세서(103)가 분산값을 이용하여 랜드마크에 적용될 가중치를 결정할 수 있다. 상술한 예시에서 기준 얼굴 데이터는 한 개의 대표 데이터를 의미하는 것으로 서술 하였지만, 기준 얼굴 데이터는 복수 개일 수 있다. 예를 들어, 전자 장치(100)는 기준 얼굴 데이터에 포함된 랜드마크들을 모두 분석하여 대응되는 랜드마크의 분산값을 획득할 수 있다. 획득된 분산값은 얼굴 형태의 왜곡(Deformation)이 얼마나 많은 영향을 받는지를 나타내는 척도가 될 수 있다. 프로세서(103)는 분산값이 커질수록 왜곡이 많이 일어난다고 볼 수 있기 때문에 분산값이 큰 랜드마크에는 작은 가중치를 부여할 수 있다. In addition, the
그리고, 프로세서(103)는 랜드마크의 분산값을 측정하기 위해 기준 얼굴 데이터의 동일한 부분의 랜드마크끼리 비교할 수 있다. 예를 들어, 복수개의 기준 얼굴 데이터는 각각 사람의 얼굴에 포함된 랜드마크 정보를 포함할 수 있다. 여기서, 프로세서(103)는 제1 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크와 제2 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크 그리고 제3 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크를 비교할 수 있다. 프로세서(103)는 3가지의 동일 부분의 랜드마크를 비교하여 분산값 및 턱 끝 부분의 가중치를 결정할 수 있다. 프로세서(103)는 위와 같은 방식으로 각각의 기준 얼굴 데이터마다 대응되는 부분의 랜드마크를 비교하여 분산값 및 가중치를 결정할 수 있다. In addition, the
구체적으로, 랜드마크는 3차원 위치 정보를 포함하고, 프로세서(103)는 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 사용자의 머리 자세를 식별할 수 있다.In detail, the landmark includes three-dimensional location information, and the
한편, 프로세서(103)는 식별된 랜드마크를 이용하여 사용자의 상태 및 사용자의 시선 중 적어도 하나를 식별할 수 있다.The
구체적으로, 프로세서(103)는 촬상부(101)에서 사용자를 촬상한 영상에서 사용자 시선을 검출할 수 있고, 검출된 시선이 디스플레이부에서 표시되는 영상(즉, 사용자를 촬상한 영상)의 어느 곳에 위치하는지 판단할 수 있다. 그리고 프로세서(103)는 디스플레이부에 표시된 영상에서 사용자 기 설정된 시간 이상 응시한 영역을 관심 영역으로 획득할 수 있다.In detail, the
프로세서(103)는 다양한 알고리즘을 이용하여, 사용자 시선을 검출할 수 있다. 일 예로, 촬상부(101)는 적외선을 조사하는 발광부를 구비한 장치일 수 있고, 촬상시 적외선을 사용자의 눈에 조사할 수 있다. 촬상 영상에선 각막에서 반사된 적외선이 나타나고, 프로세서(103)는 반사된 적외선의 위치를 이용하여 홍채와 동공을 구분하여 동공을 검출하고, 이로부터 시선 정보를 획득할 수 있다.The
또한, 프로세서(103)는 촬상 영상에서 객체의 특징을 찾는 기법(예컨대, Haar-like features)을 이용하여 눈의 위치를 검출하고, 가장자리 검출(edge detection) 기법을 이용하여 눈의 위치에서 홍채와 동공을 검출하고, 홍채와 동공의 상대적인 위치에 기반하여 사용자의 시선을 검출할 수 있다.In addition, the
그리고 프로세서(103)는 사용자가 디스플레이부에 표시된 영상의 어느 부분을 응시하였는지 판단하기 위해, 검출된 사용자 시선을 촬상 영상에 투영시킨다. 구체적으로, 메모리(102)에는 촬상부(101)의 위치와 디스플레이부에서 영상의 위치 간의 상관 관계에 대한 데이터가 저장되어 있고, 이를 이용하여, 프로세서(103)는 촬상 영상에서 검출된 사용자 시선의 좌표를 디스플레이부에 표시된 영상을 기준으로 변환함으로써, 사용자가 디스플레이부에 표시된 촬상 영상에서 응시한 영역을 검출할 수 있다.The
한편, 프로세서(103)는 사용자별로 다른 가중치를 부여할 수 있다. 프로세서(103)는 촬상부(101)를 통해 식별되는 사용자의 얼굴을 분석하여 특정 사용자임을 식별할 수 있고, 사용자별로 다르게 저장된 가중치를 적용할 수 있다.Meanwhile, the
예를 들어, 동일한 턱선 부분에 가중치를 적용한다고 가정할 때, 사용자에 따라 가중치가 다르게 적용될 수 있다. For example, assuming that the weight is applied to the same jawline portion, the weight may be differently applied according to the user.
한편, 프로세서(103)는 기저장된 사용자 정보가 검색되지 않는 다면, 새로운 사용자 정보를 생성할 수 있다. 구체적으로, 프로세서(103)는 촬상부(101)에서 촬상된 영상에서 사용자 얼굴을 검출하고, 검출된 얼굴에서 눈, 미간, 코, 콧구멍, 입술, 윤곽선의 얼굴 특징점을 획득한다. 이와 같이 촬상 영상에서 획득된 얼굴 특징점들에 기초하여, 프로세서(103)는 사용자 정보를 생성한다.Meanwhile, if previously stored user information is not retrieved, the
한편, 지금까지 가중치를 부여하는 동작을 설명함에 있어, 기설정된 가중치를 부여하는 것으로 설명하였다. 하지만, 프로세서(103)는 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다. On the other hand, in the above description of the weighting operation, it has been described as giving a predetermined weight. However, the
이 경우, 프로세서(103)는 일정 시간 동안 사용자의 얼굴을 촬상하여 분석할 수 있다. 구체적으로, 프로세서(103)는 일정 시간 동안 사용자의 얼굴을 촬상하고 사용자의 얼굴 특징점의 변화를 분석할 수 있다. 프로세서(103)는 얼굴 특징점의 변화를 통해 사용자의 얼굴 특징점 가운데 어느 부분이 가장 많이 변동 되는지 여부를 판단할 수 있다.In this case, the
프로세서(103)는 사용자의 머리 자세가 유지되고 있음에도 얼굴 특징점이 상대적으로 많이 움직이는 부분을 식별할 수 있다. 예를 들어, 사용자가 정면을 바라보고 있는 머리 자세로 판단되었음에도 얼굴 특징점이 가장 많이 변하는 부위인 턱끝, 입가, 눈가 등을 분석된 데이터를 통해 판단할 수 있다. The
상술한 예시에서는 정면을 바라보는 자세만을 설명하였지만, 이는 설명을 위한 한정에 불과하며, 프로세서(103)는 다양한 자세에서의 얼굴 특징점의 변화를 판단할 수 있다. In the above-described example, only the frontal posture has been described, but this is only a limitation for description, and the
또한, 상술한 전자 장치(100)는 차량에 구비된 장치일 수 있다. 이 경우, 프로세서(103)는 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적할 수 있다.In addition, the
도 2는 사용자의 얼굴을 식별하는 방법을 설명하기 위한 도면이다.2 is a diagram for describing a method of identifying a face of a user.
도 2를 참조하면, 사용자의 얼굴을 자동으로 식별하는 방법에는 다양한 방식이 존재 할 수 있다. Referring to FIG. 2, various methods may exist for automatically identifying a face of a user.
전자 장치(100)는 촬상부를 통해 수신되는 이미지에서 사용자의 얼굴 위치를 식별할 수 있다. The
구체적으로, 도 2(a)를 참조하면, 사용자의 눈, 눈썹, 코 및 입 등을 기초로 이미지에 포함된 사용자의 모든 얼굴(201,202,203,204)을 식별할 수 있다. Specifically, referring to FIG. 2A, all faces 201, 202, 203, and 204 of the user included in the image may be identified based on the eyes, eyebrows, nose, and mouth of the user.
또한, 도 2(b)를 참조하면, 사용자의 눈, 눈썹, 코, 입 및 얼굴 전체의 형태를 포함하여 이미지에 포함된 사용자의 모든 얼굴(211,212,213,214,215)을 식별할 수 있다. 여기서, 얼굴 전체의 형태를 파악하기 위해 사용자의 턱, 귀 등을 판단할 수 있고 얼굴 전체의 외곽선을 판단할 수 있다. 얼굴 전체의 외곽선은 얼굴 전체의 윤곽을 나타내는 정보를 의미할 수 있다. In addition, referring to FIG. 2B, all of the
도 2(a)에서는 얼굴 전체의 형태를 포함하지 않기 때문에 사용자의 턱이 움직이는 정도를 파악할 수 없지만, 도 2(b)에서는 얼굴 전체의 형태를 포함하기 때문에 사용자의 턱 부분이 움직이는 정도를 파악할 수 있다. In Figure 2 (a) does not include the shape of the entire face of the user can not determine the degree of movement of the user's jaw, but in Figure 2 (b) includes the shape of the entire face can determine the degree of movement of the user's chin. have.
전자 장치(100)는 사용자의 설정 또는 최적의 선택에 따라 사용자의 얼굴을 자동으로 식별하는 방법을 설정할 수 있다. 예를 들어, 전자 장치(100)는 도 2(a) 또는 도 2(b) 방법에 따라 사용자의 얼굴을 식별할 수 있으며, 각각의 방법은 사용자의 설정에 따라 달라질 수 있다. 최소한의 데이터를 분석 및 처리하기 위해선 도 2(a)에 의한 방법이 바람직할 수 있다. 또한, 사용자의 머리 자세를 정확히 식별하기 위해선 도 2(b)에 의한 방법을 선택하는 것이 바람직할 수 있다. 따라서, 전자 장치(100)는 사용자의 설정 또는 최적의 선택에 따라 다른 방식을 적용하여 사용자의 얼굴을 자동으로 식별할 수 있다. The
여기서, 최적의 선택이란 사용자가 전자 장치(100)를 동작하게 하는 모드와 관련될 수 있다. 예를 들어, 사용자가 전자 장치(100)의 동작 모드를 절전 또는 최소 처리 시간을 목적으로 하는 모드로 설정하였다면 비교적 적은 데이터를 이용하는 도 2(a)에 의한 방식을 선택할 수 있다. 한편, 사용자가 정확한 식별을 목적으로 하는 모드로 설정하였다면 얼굴의 전체적인 특징점을 이용하는 도 2(b)에 의한 방식을 선택할 수 있다. Here, the optimal selection may be related to the mode in which the user operates the
도 3은 사용자 얼굴 이미지에 랜드마크를 설정하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of setting a landmark in a user face image.
도 3을 참조하면, 전자 장치(100)는 촬상부를 통해 수신한 이미지에서 사용자의 얼굴(301)을 식별할 수 있고, 복수개의 얼굴 특징점을 식별할 수 있다. 여기서, 얼굴 특징점은 사람의 얼굴을 나타내는 윤곽선을 의미할 수 있다. Referring to FIG. 3, the
전자 장치(100)는 복수개의 얼굴 특징점에서 기설정된 방식으로 랜드마크(1번~68번)를 설정할 수 있다. The
랜드마크는 복수의 얼굴 특징점 중 기 설정된 방식으로 선택된 얼굴 특징점일 수 있으며, 랜드마크는 얼굴 특징점 가운데 일부분을 의미하는 것일 수 있다.The landmark may be a facial feature point selected in a preset manner among the plurality of facial feature points, and the landmark may mean a part of the facial feature points.
한편, 본 개시의 일 실시 예에 따른 기 설정된 방식은 일정 간격마다 랜드마크로 설정하는 방식일 수 있다.Meanwhile, the preset method according to an embodiment of the present disclosure may be a method of setting a landmark at a predetermined interval.
전자 장치(100)는 식별된 사용자의 얼굴 부분에서 특정 부분을 랜드마크로 설정할 수 있다. 특정 부분을 판단하기 위해서 사전에 정의한 특징점의 위치정보를 설정할 있다. The
전자 장치(100)는 사용자의 얼굴을 식별하기 위해 얼굴 특징점을 이용할 수 있다. 도 3을 참고하면, 가장 외곽에 있는 얼굴 특징점을 이어 사용자의 얼굴 부분으로 식별할 수 있다. 예를 들어, 전자 장치(100)는 얼굴 특징점 4번, 19번, 26번, 10 번을 연결하는 사각형을 사용자의 얼굴로 식별할 수 있다.The
여기서, 전자 장치(100)는 각각의 랜드마크에 가중치를 부여할 수 있으며, 각각의 랜드마크마다 서로 다른 가중치를 부여할 수 있다. Here, the
도 3에서는 각각의 랜드마크에 가중치를 부여하는 것으로 설명하였지만, 실제로 구현시에는 랜드마크를 그룹핑하여 그룹마다 동일한 가중치를 부여할 수 있다.In FIG. 3, each of the landmarks is weighted, but in actual implementation, landmarks may be grouped to give the same weight for each group.
도 4는 랜드마크를 그룹핑하는 방법을 설명하기 위한 도면이다.4 is a diagram for describing a method of grouping landmarks.
도 4를 참고하면, 전자 장치(100)는 복수개의 얼굴 특징점 가운데 일부를 랜드마크(1번~68번)로 설정하고 사용자의 얼굴(401)을 식별할 수 있다. Referring to FIG. 4, the
여기서, 전자 장치(100)는 사용자의 얼굴에 설정되어 있는 랜드마크를 그룹화 할 수 있다. 예를 들어, 사용자의 얼굴을 턱선을 포함하는 얼굴 외곽부분, 눈, 코, 입 등으로 나눌 수 있으며, 전자 장치(100)는 랜드마크를 상기 얼굴의 각 부분(얼굴 외곽 부분, 눈, 코, 입)으로 그룹화 할 수 있다. Here, the
도 4를 참고하면, 전자 장치(100)는 얼굴 외곽 부분의 랜드마크(1번~27번)를 그룹4로, 코 부분의 랜드마크(28번~36번)를 그룹 2로, 눈 부분의 랜드마크(37번~48번)를 그룹 3으로, 입 부분의 랜드마크(49번~68번)를 그룹 1로 설정할 수 있다. 그리고, 각 그룹별로 서로 다른 가중치를 부여할 수 있다. 구체적으로, 그룹1에 동일한 가중치를 부여하지만 그룹2에는 그룹 1보다 작거나 큰 가중치를 부여하는 방식을 의미할 수 있다. 전자 장치(100)는 이와 같은 방식으로 각각의 그룹별로 다른 가중치를 부여할 수 있다. Referring to FIG. 4, the
한편, 각각의 그룹별로 다른 가중치를 부여하는 것은 각각의 그룹별로 서로 다른 가중치가 부여되는 것을 의미할 수 있다. 하지만, 반드시 그룹별로 모두 다른 가중치가 적용되어야 한다는 것을 의미하는 것은 아니다. 사용자의 설정 또는 최적의 선택에 따라서 그룹 1과 그룹2에 동일한 가중치가 적용되고 그룹 3 및 그룹 4에는 그룹 1과 다른 가중치가 적용될 수도 있다.On the other hand, assigning different weights to each group may mean that different weights are assigned to each group. However, this does not necessarily mean that different weights are applied to each group. According to the user's setting or optimal selection, the same weight may be applied to Group 1 and
한편, 도 4를 설명함에 있어 얼굴 외곽 부분을 그룹 4로 표시하고 랜드마크 1번부터 27번으로 이루어져 있다고 하였지만, 실제 구현시에는 얼굴 외곽 부분을 나누어 턱선 부분(1번~17번) 및 머리 부분(18번~27번)으로 구분할 수 있다. 일반적으로 사용자의 대화 중 머리 부분이 잘 움직이지 않고 턱선 부분이 상대적으로 많이 움직일 수 있다. 이에 전자 장치(100)는 턱선 부분(1번~17번)에 더 작은 가중치를 부여할 수 있다. Meanwhile, in the description of FIG. 4, the outer part of the face is displayed as a
도 5는 본 개시의 일 실시 예에 따른 머리 자세를 추정하는 방법을 설명하기 위한 도면이다.5 is a diagram for describing a method of estimating a head posture according to an exemplary embodiment.
도 5(a)를 참조하면, 전자 장치(100)는 랜드마크 검출 알고리즘을 통해 실시간으로 사용자의 얼굴에 있는 얼굴 특징점을 식별할 수 있다. 또한, 식별된 얼굴 특징점에서 랜드마크를 설정하여 사용자의 얼굴 부분을 식별할 수 있다. 도 5(a)에서는 얼굴 외곽 부분 중 턱선 부분만을 검출하는 방식이 적용되었다.Referring to FIG. 5A, the
전자 장치(100)는 검출된 랜드마크를 이용하여 랜드마크에 포함된 위치 정보를 계산할 수 있다. 여기서, 위치 정보는 2차원 또는 3차원의 정보일 수 있다. The
도 5 (b)를 참조하면, 전자 장치(100)는 2차원 및 3차원의 위치 정보를 모두 이용하여, 두가지 정보 사이에서 Projection Matrix를 구하는 PnP(Perspective n Point) 방법을 적용할 수 있다. 그리고, 전자 장치(100)는 Projection Matrix내의 파라미터인 R(Roation)성분과 t(Translation)성분을 계산하여 결국 머리 자세를 추정할 수 있는 정보를 획득할 수 있다. 전자 장치(100)는 계산된 PnP의 R성분을 이용하여 사용자의 머리 자세를 추정할 수 있다. R성분은 (Roll, Pitch, Yaw)로 구성될 수 있으며 정면을 보고 있는 경우 (0,0,0)의 값을 가질 수 있다.Referring to FIG. 5B, the
도 6은 랜드마크에 가중치를 부여하는 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method of assigning a weight to a landmark.
전자 장치(100)는 Projection Matrix를 계산하는 과정에 있어, 얼굴 형태의 왜곡(Deformation)의 영향을 줄이기 위하여 가중치를 부여할 수 있다. 구체적으로, 전자 장치(100)는 랜드마크에 가중치를 부여하여 얼굴 형태의 왜곡을 줄일 수 있고, 얼굴 형태의 왜곡이 줄어들면 머리자세를 정확하게 식별할 수 있다. 이 경우, 전자 장치(100)는 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 가중치를 적용하여 사용자의 머리 자세를 식별할 수 있다. In the process of calculating the projection matrix, the
기준 얼굴 데이터란 사용자의 머리 자세를 식별하기 위해 기준이 되는 데이터를 의미할 수 있다. 구체적으로, 기준 얼굴 데이터란 사용자의 머리 자세에 따른 랜드마크 (또는 얼굴 특징점)를 저장하고 전자 장치(100)에서 식별되는 랜드마크와 비교될 수 있다.The reference face data may refer to data which is a reference for identifying a posture of a user. In detail, the reference face data may store a landmark (or facial feature point) according to a user's head posture and may be compared with a landmark identified by the
전자 장치(100)는 기저장된 복수의 기준 얼굴 데이터에 포함된 정보를 전자 장치(100)가 식별한 랜드마크와 비교하여 가장 차이가 적은 기준 얼굴 데이터를 식별할 수 있다. 예를 들어, 비교된 랜드마크의 위치 정보의 차이가 가장 적은 기준 얼굴 데이터를 식별하면 전자 장치(100)는 사용자가 기준 얼굴 데이터에 대응되는 머리 자세를 현재 취하고 있다고 추측할 수 있다. The
또한, 전자 장치(100)가 분산값을 이용하여 랜드마크에 적용될 가중치를 결정할 수 있다. 예를 들어 기준 얼굴 데이터에 포함된 랜드마크들을 모두 분석하여 대응되는 랜드마크의 분산값을 획득할 수 있다. 획득된 분산값은 얼굴 형태의 왜곡(Deformation)이 얼마나 많은 영향을 받는지를 나타내는 척도가 될 수 있다. 전자 장치(100)는 분산값이 커질수록 왜곡이 많이 일어난다고 볼 수 있기 때문에 분산값이 큰 랜드마크에는 작은 가중치를 부여할 수 있다. In addition, the
그리고, 전자 장치(100)는 랜드마크의 분산값을 측정하기 위해 기준 얼굴 데이터의 동일한 부분의 랜드마크끼리 비교할 수 있다. 예를 들어, 복수개의 기준 얼굴 데이터는 각각 사람의 얼굴에 포함된 랜드마크 정보를 포함할 수 있다. 여기서, 전자 장치(100)는 제1 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크와 제2 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크 그리고 제3 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크를 비교할 수 있다. 전자 장치(100)는 3가지의 동일 부분의 랜드마크를 비교하여 분산값 및 턱 끝 부분의 가중치를 결정할 수 있다. 전자 장치(100)는 위와 같은 방식으로 각각의 기준 얼굴 데이터마다 대응되는 부분의 랜드마크를 비교하여 분산값 및 가중치를 결정할 수 있다. The
도 6을 참고하면, 전자 장치(100)가 사용자의 얼굴 특징점 중에서 일부를 랜드마크로 설정한 이후에, 랜드마크마다 서로 다른 가중치를 부여할 수 있다. 위에서 설명한 것처럼 상대적으로 움직임이 많은 부분의 랜드마크에 더 작은 가중치를 부여할 수 있다. 상대적으로 움직임이 많은지 여부는 랜드마크의 상대적 위치를 통해 파악할 수 있다. 이는 기설정된 값에 의해 정해지거나, 일정 시간 동안 사용자의 움직임을 통해 파악할 수도 있다. Referring to FIG. 6, after the
도 6에서는 상대적으로 움직임이 많은 랜드마크일수록 원을 크게 표시하였다. 턱 끝, 입가, 코 끝, 눈가 등이 가장 움직임이 많은 부분으로 판단될 수 있고, 도 6에서 이러한 부분이 상대적으로 움직임이 많다는 부분임을 나타내기 위해 큰 원으로 표시하였다. 그리고 전자 장치(100)는 상대적으로 움직임이 많은 턱 끝, 입가, 코 끝, 눈가 부분 등에 가중치를 작게 부여하여 머리 자세를 정확하게 식별할 수 있다.In FIG. 6, the larger the landmark, the larger the circle. The tip of the jaw, the mouth, the tip of the nose, the edge of the eyes can be judged as the most moving parts, and in FIG. 6, these parts are indicated by large circles to indicate that the moving parts are relatively high. In addition, the
도 7은 PnP(Perspective n Point)를 설명하기 위한 도면이다.7 is a diagram for describing a perspective n point (PnP).
PnP(Perspective n Point) 방법은 2차원 위치 정보 및 3차원 위치 정보가 서로 1:1 매핑이되는 조건에서 R(Roation)성분과 t(Translation)성분을 획득하는 방법일 수 있다. 전자 장치(100)는 상기 계산과정에서Closed form solution을 가질수가 없는 경우, 반복적인 연산 방법을 사용할 수 있다. 또한, 전자 장치(100)는 Reprojection Error를 줄이는 방향으로 PnP를 계산할 수 있다. 전자 장치(100)는 계산된 PnP의 R성분을 이용하여 사용자의 머리 자세를 추정할 수 있다. R성분은 (Roll, Pitch, Yaw)로 구성될 수 있으며 정면을 보고 있는 경우 (0,0,0)의 값을 가질 수 있다.The Perspective n Point (PnP) method may be a method of acquiring an R (Roation) component and a t (Translation) component under a condition in which two-dimensional location information and three-dimensional location information are mapped to each other 1: 1. When the
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.8 is a diagram illustrating a control method of an electronic device according to an embodiment of the present disclosure.
도 8을 참고하면, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치(100)의 제어 방법은 촬영된 영상에서 사용자의 얼굴을 식별하는 단계(801), 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계(802) 및 식별된 랜드마크에 대응되는 가중치를 획득하고, 획득된 가중치를 랜드마크에 적용(803)하여 사용자의 머리 자세를 식별하는 단계(804)를 포함하며, 가중치는 움직임이 상대적으로 적은 랜드마크에 상대적으로 작은 가중치가 부여된다.Referring to FIG. 8, the control method of the
또한, 사용자의 머리 자세를 식별하는 804단계에서 전자 장치(100)는 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다.In
또한, 사용자의 머리 자세를 식별하는 804단계는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In
또한, 랜드마크는 3차원 위치 정보를 포함하고, 사용자의 머리 자세를 식별하는 804단계는 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 사용자의 얼굴 자세를 식별할 수 있다.In addition, the landmark includes three-dimensional location information, and in
또한, 사용자의 머리 자세를 식별하는 804단계는 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.In
한편, 전자 장치(100)는 차량에 구비된 장치이며, 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계를 더 포함할 수 있다.Meanwhile, the
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 에 설치 가능한 어플리케이션 형태로 구현될 수 있다. Meanwhile, the above-described methods according to various embodiments of the present disclosure may be implemented in an application form that can be installed in an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. In addition, the above-described methods according to various embodiments of the present disclosure may be implemented only by software upgrade or hardware upgrade of an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치의 외부 서버를 통해 수행되는 것도 가능하다.In addition, the above-described various embodiments of the present disclosure may be performed through an embedded server provided in the electronic device or an external server of the electronic device.
한편, 상술한 실시 예에 따른 전자 장치 제어 방법은 프로그램으로 구현되어 전자 장치에 제공될 수 있다. 특히, 전자 장치 제어 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.Meanwhile, the electronic device control method according to the above-described embodiment may be implemented as a program and provided to the electronic device. In particular, the program including the electronic device control method may be stored and provided in a non-transitory computer readable medium.
또한, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.In addition, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. According to a hardware implementation, the embodiments described in the present disclosure may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), Processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions. In some cases, the embodiments described herein may be implemented in the processor 120 itself. According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치 에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 에서의 처리 동작을 상기 특정 기기가 수행하도록 한다. Meanwhile, computer instructions for performing a processing operation in the electronic device according to various embodiments of the present disclosure may be stored in a non-transitory computer-readable medium. The computer instructions stored in the non-transitory computer readable medium allow the specific device to perform processing operations in the former according to the above-described various embodiments when executed by the processor of the specific device.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like. Specific examples of non-transitory computer readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
구체적으로, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치(100)의 프로세서(103)에 의해 실행되는 경우 전자 장치(100)가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체는 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 식별된 랜드마크에 대응되는 가중치를 획득하고, 획득된 가중치를 랜드마크에 적용하여 사용자의 머리 자세를 식별하는 단계를 포함하며, 가중치는 움직임이 상대적으로 적은 랜드마크에 상대적으로 작은 가중치가 부여된다.Specifically, when executed by the
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the above has been illustrated and described with respect to preferred embodiments of the present disclosure, the present disclosure is not limited to the above-described specific embodiments, and is normally made in the art without departing from the gist of the present disclosure as claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present disclosure.
100: 전자 장치
101: 촬상부
102: 메모리
103: 프로세서100: electronic device 101: imaging unit
102: memory 103: processor
Claims (15)
촬상부;
기정의된 특징점을 나타내는 랜드마크에 대응되는 가중치가 저장된 메모리;
상기 촬상부에 의해 촬영된 영상에서 사용자의 얼굴을 식별하고,
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고,
상기 식별된 랜드마크에 대응되는 가중치를 상기 메모리로부터 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 프로세서;를 포함하며,
상기 메모리에 저장된 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 전자 장치.
In an electronic device,
An imaging unit;
A memory in which weights corresponding to landmarks representing predefined feature points are stored;
Identify the face of the user in the image taken by the image pickup unit,
Identifying a landmark among facial feature points of the identified user;
And a processor configured to obtain a weight corresponding to the identified landmark from the memory, and apply the obtained weight to the landmark to identify a head posture of the user.
The weight stored in the memory is,
An electronic device, wherein a relatively small weight is given to a landmark having a lot of movement.
상기 프로세서는,
상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치.
The method of claim 1,
The processor,
And applying the weight to a difference value between a landmark of the user's face and a landmark of reference face data to identify the posture of the user's head.
상기 프로세서는,
상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용하는, 전자 장치.
The method of claim 1,
The processor,
The electronic device of claim 1, wherein a weight that is relatively smaller than other landmarks is applied to a landmark constituting the outer edge of the face.
상기 프로세서는,
움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여하는, 전자 장치.
The method of claim 1,
The processor,
The first weight is given to a landmark corresponding to at least one of the less-moving eyes, the eyebrows, and the nose, and the second weight is less than the first weight to the landmark corresponding to at least one of the mouth and the jaw. Device.
상기 랜드마크는 3차원 위치 정보를 포함하고,
상기 프로세서는,
상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치.
The method of claim 1,
The landmark includes three-dimensional location information,
The processor,
And applying a perspective n point (PnP) method to the 3D location information to identify the posture of the user's head.
상기 전자 장치는, 차량에 구비된 장치이며,
상기 프로세서는,
상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는, 전자 장치.
The method of claim 1,
The electronic device is a device provided in the vehicle,
The processor,
And track at least one of a driver's state and a driver's gaze based on the identified user's head posture.
상기 프로세서는,
상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장하는, 전자 장치.
The method of claim 1,
The processor,
And obtaining a movement degree of the landmark identified on the face of the user and mapping and storing a relatively large weight to a landmark having a relatively large movement degree.
촬영된 영상에서 사용자의 얼굴을 식별하는 단계;
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계; 및
상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계;를 포함하며,
상기 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 전자 장치의 제어 방법.
A control method of an electronic device for storing a weight corresponding to a landmark representing a predefined feature point,
Identifying a face of the user in the captured image;
Identifying a landmark among the identified facial feature points of the user; And
Acquiring a weight corresponding to the identified landmark and applying the obtained weight to the landmark to identify a head posture of the user.
The weight is,
A relatively small weight is given to a landmark with a lot of movement.
상기 사용자의 머리 자세를 식별하는 단계는,
상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And applying the weight to a difference value between a landmark of the user's face and a landmark of reference face data to identify the posture of the user's head.
상기 사용자의 머리 자세를 식별하는 단계는,
상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And applying a weight that is relatively smaller than other landmarks to the landmarks constituting the outside of the face among the identified landmarks of the user.
상기 사용자의 머리 자세를 식별하는 단계는,
움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
A first weight is assigned to a landmark corresponding to at least one of the less-moving eye, an eyebrow, and a nose, and a second weight is less than the first weight to a landmark corresponding to at least one of the mouth and the chin. Control method of the device.
상기 랜드마크는 3차원 위치 정보를 포함하고,
상기 사용자의 머리 자세를 식별하는 단계는,
상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치의 제어 방법.
The method of claim 8,
The landmark includes three-dimensional location information,
Identifying the head posture of the user,
And controlling the posture of the user's head by applying a Perspective n Point (PnP) method to the 3D location information.
상기 전자 장치는, 차량에 구비된 장치이며,
상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
The method of claim 8,
The electronic device is a device provided in the vehicle,
And tracking at least one of a driver's state and a driver's gaze based on the identified head posture of the user.
상기 사용자의 머리 자세를 식별하는 단계는,
상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And obtaining a degree of movement of the landmark identified on the face of the user and mapping and storing a relatively large weight to a landmark having a relatively high degree of movement.
촬영된 영상에서 사용자의 얼굴을 식별하는 단계;
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계; 및
상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계;를 포함하며,
상기 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 컴퓨터 판독가능 기록매체.A non-transitory computer readable medium for storing computer instructions for causing an electronic device to perform an operation when executed by a processor of an electronic device that stores a weight corresponding to a landmark representing a predefined feature point. ,
Identifying a face of the user in the captured image;
Identifying a landmark among the identified facial feature points of the user; And
Acquiring a weight corresponding to the identified landmark, and applying the obtained weight to the landmark to identify a head posture of the user.
The weight is,
A computer readable recording medium in which relatively small weights are given to landmarks having a lot of movement.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180016984A KR102074977B1 (en) | 2018-02-12 | 2018-02-12 | Electronic devices and methods thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180016984A KR102074977B1 (en) | 2018-02-12 | 2018-02-12 | Electronic devices and methods thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190097494A true KR20190097494A (en) | 2019-08-21 |
KR102074977B1 KR102074977B1 (en) | 2020-02-07 |
Family
ID=67808576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180016984A KR102074977B1 (en) | 2018-02-12 | 2018-02-12 | Electronic devices and methods thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102074977B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102375587B1 (en) * | 2021-11-15 | 2022-03-18 | 주식회사 버츄어라이브 | Method and apparauts for suggestion and composition of hair image |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101515928B1 (en) * | 2013-11-29 | 2015-05-06 | 재단법인대구경북과학기술원 | Apparatus and method for face recognition using variable weight fusion |
KR20160066380A (en) * | 2014-12-02 | 2016-06-10 | 삼성전자주식회사 | Method and apparatus for registering face, method and apparatus for recognizing face |
KR20170000748A (en) * | 2015-06-24 | 2017-01-03 | 삼성전자주식회사 | Method and apparatus for face recognition |
KR20170135758A (en) * | 2016-05-30 | 2017-12-08 | 한국과학기술원 | User -independent Face Landmark Detection and Tracking Apparatus for Spatial Augmented Reality Interaction |
-
2018
- 2018-02-12 KR KR1020180016984A patent/KR102074977B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101515928B1 (en) * | 2013-11-29 | 2015-05-06 | 재단법인대구경북과학기술원 | Apparatus and method for face recognition using variable weight fusion |
KR20160066380A (en) * | 2014-12-02 | 2016-06-10 | 삼성전자주식회사 | Method and apparatus for registering face, method and apparatus for recognizing face |
KR20170000748A (en) * | 2015-06-24 | 2017-01-03 | 삼성전자주식회사 | Method and apparatus for face recognition |
KR20170135758A (en) * | 2016-05-30 | 2017-12-08 | 한국과학기술원 | User -independent Face Landmark Detection and Tracking Apparatus for Spatial Augmented Reality Interaction |
Non-Patent Citations (1)
Title |
---|
임선규 외 3인. 대규모 얼굴 데이터베이스를 위한 빠르고 확장성 있는 얼굴 인식 시스템. 정보과학회논문지: 데이터베이스 제39권 제5호. 279-287 페이지. 2012.10.* * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102375587B1 (en) * | 2021-11-15 | 2022-03-18 | 주식회사 버츄어라이브 | Method and apparauts for suggestion and composition of hair image |
Also Published As
Publication number | Publication date |
---|---|
KR102074977B1 (en) | 2020-02-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10684681B2 (en) | Neural network image processing apparatus | |
US9733703B2 (en) | System and method for on-axis eye gaze tracking | |
JP5024067B2 (en) | Face authentication system, method and program | |
US11715231B2 (en) | Head pose estimation from local eye region | |
KR20220150868A (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
JP6651074B2 (en) | Method for detecting eye movement, program thereof, storage medium for the program, and apparatus for detecting eye movement | |
JP2012037934A (en) | Visual line detection device, visual line detection method and program | |
JP2016173313A (en) | Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program | |
WO2011158463A1 (en) | External light glare assessment device, line of sight detection device and external light glare assessment method | |
WO2016107638A1 (en) | An image face processing method and apparatus | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
KR20170092533A (en) | A face pose rectification method and apparatus | |
KR20120006819A (en) | Gaze detection method and system adopting the same | |
CN110647782A (en) | Three-dimensional face reconstruction and multi-pose face recognition method and device | |
JP6981277B2 (en) | Detection device and detection program | |
JP2014186505A (en) | Visual line detection device and imaging device | |
Santos et al. | Eye gaze as a human-computer interface | |
JP2002366958A (en) | Method and device for recognizing image | |
KR102074977B1 (en) | Electronic devices and methods thereof | |
JP6785723B2 (en) | Line-of-sight measuring device | |
JP7047848B2 (en) | Face 3D shape estimation device, face 3D shape estimation method, and face 3D shape estimation program | |
KR20170088315A (en) | Integrated Control method for Vehicle Drive using Depth Information based Face Recognition | |
JP7107380B2 (en) | Estimation device, estimation method, and program | |
CN112800966B (en) | Sight tracking method and electronic equipment | |
US20170109569A1 (en) | Hybrid face recognition based on 3d data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |