KR20190097494A - Electronic devices and methods thereof - Google Patents

Electronic devices and methods thereof Download PDF

Info

Publication number
KR20190097494A
KR20190097494A KR1020180016984A KR20180016984A KR20190097494A KR 20190097494 A KR20190097494 A KR 20190097494A KR 1020180016984 A KR1020180016984 A KR 1020180016984A KR 20180016984 A KR20180016984 A KR 20180016984A KR 20190097494 A KR20190097494 A KR 20190097494A
Authority
KR
South Korea
Prior art keywords
user
landmark
weight
face
electronic device
Prior art date
Application number
KR1020180016984A
Other languages
Korean (ko)
Other versions
KR102074977B1 (en
Inventor
황병훈
이상헌
김현덕
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020180016984A priority Critical patent/KR102074977B1/en
Publication of KR20190097494A publication Critical patent/KR20190097494A/en
Application granted granted Critical
Publication of KR102074977B1 publication Critical patent/KR102074977B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • G06K9/00201
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is an electronic device for estimating a head posture. The electronic device of the present invention comprises: a photographing unit; a memory storing a weight corresponding to a landmark representing a previously defined feature point; and a processor identifying a face of a user from an image photographed by the photographing unit, identifying the landmark among face feature points of the identified user, and identifying a head posture of the user by obtaining the weight corresponding to the identified landmark from the memory and applying the obtained weight to the landmark. Relatively small weight among the weights stored in the memory is given to a landmark with relatively little movement.

Description

전자 장치 및 그의 제어 방법{ELECTRONIC DEVICES AND METHODS THEREOF}ELECTRICAL DEVICES AND METHODS THEREOF

본 개시는 전자 장치 및 그의 제어방법에 관한 것으로, 더욱 상세하게는 사용자 얼굴에 랜드마크를 설정하여 머리자세를 추정하는 전자 장치 및 그의 제어방법에 대한 것이다.The present disclosure relates to an electronic device and a control method thereof, and more particularly, to an electronic device and a control method for estimating a head posture by setting a landmark on a user's face.

최근 비디오 영상에서 얼굴을 탐지하고 추적, 인식하기 위한 많은 연구들이 진행되고 있었다. 사용자의 머리 자세를 식별하는 기술은 얼굴 인식, 표정 인식, 영상 모델링 등 다양한 컴퓨터 비전(computer vision) 분야에서 매우 중요하다. Recently, many studies have been conducted to detect, track, and recognize faces in video images. Technology for identifying a user's head posture is very important in various computer vision fields such as face recognition, facial expression recognition, and image modeling.

종래에 사용자의 머리 자세를 추정하기 위해서 미리 저장하고 있는 복수개의 샘플과 비교하였다. 그리고 현재 촬상 되는 이미지와 가장 비슷한 샘플을 찾아 사용자의 머리 자세를 추정하였다. 이러한 방식은 사용자의 표정이 변하지 않는 일반적인 상황에서 비교적 높은 정확도를 가질 수 있다. 하지만, 사용자가 대화를 하거나, 감정 표현을 하는 경우 등 다양한 상황으로 인한 사용자의 얼굴 변화를 반영할 수 없는 문제점이 있었다. In order to estimate the head posture of the user, a comparison is made with a plurality of samples stored in advance. The user's head posture was estimated by finding the sample most similar to the current image. This approach may have a relatively high accuracy in general situations where the user's facial expression does not change. However, there is a problem in that the user's face change due to various situations such as when the user talks or expresses emotions cannot be reflected.

예를 들어, 종래의 방법은 사용자의 머리 자세가 일정하게 유지되어도 대화를 하면서 턱이 움직이거나 눈을 감는 등 표정이 변하면 사용자의 머리 자세를 다르게 식별하는 문제점이 있었다. For example, the conventional method has a problem in that the head posture of the user is differently identified when the facial expression is changed, such as the jaw moving or closing the eyes, while the head posture of the user is kept constant.

또한, 종래의 방법은 다양한 샘플을 저장해야 하기 때문에 큰 용량의 메모리 및 빠른 연산속도를 갖는 프로세서가 필요하였다. 따라서 고가 및 고성능의 연산 시스템이 필요하다는 문제점이 있었다.In addition, the conventional method required a processor having a large memory capacity and a high computational speed because a variety of samples must be stored. Therefore, there is a problem that a high cost and high performance computing system is required.

본 개시는 상술한 문제를 개선하기 위해 고안된 것으로, 본 개시의 목적은 복수개의 랜드마크를 설정하여 가중치를 다르게 부여하여 머리 자세를 추정하는 전자 장치 및 그의 제어방법을 제공함에 있다.The present disclosure is devised to improve the above-described problem, and an object of the present disclosure is to provide an electronic device and a control method thereof for estimating a head posture by setting a plurality of landmarks and giving different weights.

상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 촬상부, 기정의된 특징점을 나타내는 랜드마크에 대응되는 가중치가 저장된 메모리, 상기 촬상부에 의해 촬영된 영상에서 사용자의 얼굴을 식별하고, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고, 상기 식별된 랜드마크에 대응되는 가중치를 상기 메모리로부터 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 프로세서를 포함하며, 상기 메모리에 저장된 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.According to an embodiment of the present invention, an electronic device is provided that includes: an imager, a memory storing a weight corresponding to a landmark representing a predetermined feature point, a face of a user in an image photographed by the imager, A processor for identifying a landmark among the identified facial feature points of the user, obtaining a weight corresponding to the identified landmark from the memory, and applying the obtained weight to the landmark to identify the head posture of the user And a weight stored in the memory is given a relatively small weight to a landmark having a lot of movement.

이 경우, 상기 프로세서는 상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In this case, the processor may identify the head posture of the user by applying the weight to a difference value between the landmark of the user's face and the landmark of the reference face data.

또한, 상기 프로세서는 상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다. In addition, the processor may apply a weight that is relatively smaller than other landmarks to the landmarks constituting the outside of the face among the identified landmarks of the user.

또한, 상기 프로세서는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the processor assigns a first weight to a landmark corresponding to at least one of eyes, an eyebrow, and a nose with less movement, and a second weight less than the first weight to a landmark corresponding to at least one of a mouth and a jaw. Can be given.

또한, 상기 랜드마크는 3차원 위치 정보를 포함하고, 상기 프로세서는 상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.The landmark may include three-dimensional location information, and the processor may identify a head posture of the user by applying a Perspective n Point (PnP) method to the three-dimensional location information.

또한, 상기 전자 장치는 차량에 구비된 장치이며, 상기 프로세서는 상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적할 수 있다.The electronic device may be a device provided in a vehicle, and the processor may track at least one of a driver's state and a driver's gaze based on the identified head posture of the user.

또한, 상기 프로세서는 상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.The processor may acquire a degree of movement of the landmark identified on the face of the user, and map a relatively large weight to a landmark having a relatively high degree of movement and store the weight.

한편, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 제어 방법은 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계를 포함하며, 상기 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.Meanwhile, a control method of an electronic device for storing a weight corresponding to a landmark representing a predefined feature point according to an embodiment of the present disclosure may include identifying a face of a user in a captured image, and identifying the face feature point of the identified user. Identifying a landmark and obtaining a weight corresponding to the identified landmark, and applying the obtained weight to the landmark to identify a head posture of the user. Relatively small landmarks are given relatively small weights.

이 경우, 상기 사용자의 머리 자세를 식별하는 단계는 상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In this case, the step of identifying the head pose of the user may identify the head pose of the user by applying the weight to a difference value between the landmark of the user's face and the landmark of the reference face data.

또한, 상기 사용자의 머리 자세를 식별하는 단계는 상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다.In the identifying of the user's head posture, a weight that is relatively smaller than other landmarks may be applied to a landmark constituting the outside of the face among the identified landmarks of the user.

또한, 상기 사용자의 머리 자세를 식별하는 단계는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the identifying of the user's head posture may include assigning a first weight to a landmark corresponding to at least one of eyes, eyebrows, and nose having less movement, and applying the first weight to a landmark corresponding to at least one of a mouth and a chin. A second weight less than one weight can be given.

또한, 상기 랜드마크는 3차원 위치 정보를 포함하고, 상기 사용자의 머리 자세를 식별하는 단계는 상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별할 수 있다.In addition, the landmark includes three-dimensional location information, and the step of identifying the head pose of the user may identify the head pose of the user by applying a perspective n point (PnP) method to the three-dimensional location information. .

또한, 상기 전자 장치는 차량에 구비된 장치이며, 상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계를 더 포함할 수 있다.In addition, the electronic device is a device provided in a vehicle, and may further include tracking at least one of a driver's state and a driver's gaze based on the identified head posture of the user.

또한, 상기 사용자의 머리 자세를 식별하는 단계는 상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.In the identifying of the user's head posture, the movement degree of the landmark identified in the face of the user may be obtained, and the weight may be mapped to a relatively large landmark and stored.

한편, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체는 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계를 포함하며, 상기 가중치는 움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된다.Meanwhile, when executed by a processor of an electronic device that stores a weight corresponding to a landmark representing a predefined feature point, a non-transitory storing computer instructions for causing the electronic device to perform an operation. The computer readable medium may further include identifying a face of the user in the captured image, identifying a landmark among the identified facial feature points of the user, and obtaining a weight corresponding to the identified landmark, and obtaining the weighted value. And identifying the head posture of the user by applying to the landmark, wherein the weight is given a relatively small weight to a landmark having a relatively high movement.

도 1은 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도,
도 2는 사용자의 얼굴을 식별하는 방법을 설명하기 위한 도면,
도 3은 사용자 얼굴 이미지에 랜드마크를 설정하는 방법을 설명하기 위한 도면,
도 4는 랜드마크를 그룹핑하는 방법을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 머리 자세를 추정하는 방법을 설명하기 위한 도면,
도 6은 랜드마크에 가중치를 부여하는 방법을 설명하기 위한 도면,
도 7은 PnP(Perspective n Point)를 설명하기 위한 도면, 그리고
도 8은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.
1 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure;
2 is a view for explaining a method of identifying a face of a user;
3 is a view for explaining a method for setting a landmark in a user face image;
4 is a view for explaining a method of grouping landmarks;
5 is a view for explaining a method of estimating a head posture according to an embodiment of the present disclosure;
6 is a view for explaining a method for weighting a landmark;
7 is a view for explaining a perspective n point (PnP), and
8 is a diagram illustrating a control method of an electronic device according to an embodiment of the present disclosure.

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다. Before describing this disclosure in detail, the description method of this specification and drawings is demonstrated.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected from the general terms in consideration of functions in various embodiments of the present disclosure, but these terms are defined by intention or legal or technical interpretation of those skilled in the art and It may vary depending on the emergence of new technologies. In addition, some terms are terms arbitrarily selected by the applicant. Such terms may be interpreted in the meanings defined herein, and may be interpreted based on the general contents of the present specification and common technical knowledge in the art without specific term definitions.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. In addition, the same reference numerals or symbols described in each drawing attached to the present specification represent parts or components that perform substantially the same function. For convenience of explanation and understanding, different embodiments will be described using the same reference numerals or symbols. That is, although all the components having the same reference numerals are shown in the plurality of drawings, the plurality of drawings does not mean an embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. Also, in the present specification and claims, terms including ordinal numbers such as “first”, “second”, and the like may be used to distinguish between components. These ordinal numbers are used to distinguish the same or similar components from each other, and the meaning of the terms should not be construed as limited by the use of these ordinal numbers. For example, the components combined with these ordinal numbers should not be limited in order of use or arrangement by the number. If necessary, the ordinal numbers may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.As used herein, the singular forms "a", "an" and "the" include plural forms unless the context clearly indicates otherwise. In this application, "includes." Or "made up." And the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features or numbers, step, action, component, part, or It should be understood that they do not preclude the presence or possibility of adding these in advance.

본 실시 예들은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나 이는 특정한 실시 형태에 대해 범위를 한정하려는 것이 아니며, 개시된 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 실시 예들을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. The embodiments may be variously modified and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the scope to the specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the scope of the disclosed spirit and technology. In describing the embodiments, when it is determined that the detailed description of the related known technology may obscure the gist, the detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 권리범위를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다." 또는 "구성되다." 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the scope. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, "includes." Or "made up." And the like are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features or numbers, step, action, component, part, or It should be understood that they do not preclude the presence or possibility of adding these in advance.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In the embodiments of the present disclosure, terms such as “module”, “unit”, “part”, and the like are terms for referring to a component that performs at least one function or operation, and such components are referred to as hardware or software. It may be implemented or a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except that each needs to be implemented with a particular specific hardware, and is at least one processor. It can be implemented as.

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when a part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a part includes a certain component means that it may further include other components, without excluding other components, unless specifically stated otherwise.

도 1은 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.1 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.

도 1은 촬상부(101), 메모리(102) 및 프로세서(103)로 구성될 수 있다.1 may include an imaging unit 101, a memory 102, and a processor 103.

촬상부(101)는 피사체를 촬상하여 촬상 영상을 생성하기 위한 구성이며, 여기서 촬상 영상은 동영상과 정지 영상 모두를 포함하는 개념이다.The image capturing unit 101 is a configuration for generating a captured image by capturing a subject, where the captured image includes both a moving image and a still image.

촬상부(101)는 적어도 하나의 외부 기기에 대한 이미지를 획득할 수 있으며, 카메라, 렌즈, 적외선 센서 등으로 구현될 수 있다.The imaging unit 101 may acquire an image of at least one external device, and may be implemented as a camera, a lens, an infrared sensor, or the like.

촬상부(101)는 렌즈와 이미지 센서를 포함할 수 있다. 렌즈의 종류에는 일반적인 범용 렌즈, 광각 렌즈, 줌 렌즈 등이 있으며, 전자 장치(100)의 종류, 특성, 사용 환경 등에 따라 결정될 수 있다. 이미지 센서로는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS)와 전하결합소자(Charge Coupled Device: CCD) 등이 사용될 수 있다.The imaging unit 101 may include a lens and an image sensor. The type of lens includes a general-purpose lens, a wide-angle lens, a zoom lens, and the like, and may be determined according to the type, characteristics, and use environment of the electronic device 100. As an image sensor, a complementary metal oxide semiconductor (CMOS), a charge coupled device (CCD), or the like may be used.

촬상부(101)는 입사된 빛을 영상 신호로 출력한다. 구체적으로, 촬상부(101)는 렌즈, 화소 및 AD 컨버터를 구비할 수 있다. 렌즈는 피사체의 빛을 모아서 촬상 영역에 광학상이 맺히게 하며, 화소는 렌즈를 통해 입상되는 빚을 아날로그 형태의 영상 신호로 출력할 수 있다. 그리고 AD 컨버터는 아날로그 형태의 영상 신호를 디지털 형태의 영상 신호로 변환하여 출력할 수 있다. The imaging unit 101 outputs incident light as an image signal. In detail, the imaging unit 101 may include a lens, a pixel, and an AD converter. The lens collects the light of the subject to form an optical image in the image capturing area, and the pixel may output an image formed in the form of an analog signal through the lens. The AD converter may convert an analog video signal into a digital video signal and output the converted video signal.

특히, 촬상부(101)는 전자 장치(100)의 전면 방향을 촬상하도록 배치되어, 전자 장치(100)의 전면에 존재하는 사용자를 촬상하여 촬상 영상을 생성할 수 있다. In particular, the image capturing unit 101 may be arranged to capture a front direction of the electronic device 100, and may generate a captured image by capturing a user existing in the front of the electronic device 100.

한편, 본 개시의 일 실시 예에 따른 전자 장치(100)를 설명함에 있어 촬상부(101)가 한 개인 것으로 설명하고 있지만, 실제 구현 시에는 복수개의 촬상부가 배치될 수 있다. 전자 장치(100)는 복수개의 촬상부를 구비할 수 있고, 복수개의 촬상부를 통해 수신되는 영상을 결합하여 사용자의 머리 자세를 식별할 수 있다. 한 개의 촬상부(101)를 이용하는 것보다 복수개의 촬상부(101)를 이용하면 3차원적인 움직임을 더욱 정밀하게 분석할 수 있어 사용자의 머리 자세를 식별하는데 효과적일 수 있다. Meanwhile, in describing the electronic device 100 according to an embodiment of the present disclosure, the imaging unit 101 is described as one person, but in actual implementation, a plurality of imaging units may be disposed. The electronic device 100 may include a plurality of imaging units, and may combine the images received through the plurality of imaging units to identify a user's head posture. Using a plurality of imaging units 101 can analyze the three-dimensional movements more precisely than using one imaging unit 101, which can be effective in identifying a user's head posture.

메모리(102)는 비휘발성 메모리, 휘발성 메모리, 플래시메모리(flash-memory), 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 한편, 메모리는 전자 장치내의 저장 매체뿐만 아니라, 외부 저장 매체, 예를 들어, micro SD 카드, USB 메모리 또는 네트워크를 통한 웹 서버(Web server) 등으로 구현될 수 있다.The memory 102 may be implemented as a nonvolatile memory, a volatile memory, a flash-memory, a hard disk drive (HDD), a solid state drive (SSD), or the like. The memory may be implemented not only as a storage medium in the electronic device but also as an external storage medium, for example, a micro SD card, a USB memory, or a web server through a network.

구체적으로, 메모리(102)는 전자 장치(100)의 동작에 이용되는 데이터를 저장할 수 있으며, 메모리(102)는 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장할 수 있다. In detail, the memory 102 may store data used for the operation of the electronic device 100, and the memory 102 may store weights corresponding to landmarks representing predefined feature points.

프로세서(103)는 전자 장치(100)의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 프로세서(103)는 얼굴의 특징점을 이용하여 사용자의 머리 자세를 식별할 수 있다. The processor 103 may perform an overall control operation of the electronic device 100. In detail, the processor 103 may identify the head posture of the user using the feature points of the face.

일 실시 예에 따라 프로세서(103)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(103)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다.According to an embodiment, the processor 103 may include a digital signal processor (DSP), a microprocessor, a time controller (TCON), a central processing unit (CPU), and a micro controller unit (MCU). ), Microprocessor unit, controller, application processor (AP), or communication processor (CP), or one or more of ARM processors, or defined in these terms In addition, the processor 103 may be implemented as a system on chip (SoC), a large scale integration (LSI) in which a processing algorithm is embedded, or a field programmable gate array (FPGA).

프로세서(103)는 사용자의 머리 자세를 식별할 수 있다. 여기서, 사용자의 머리 자세는 사용자의 머리의 위치 및 상태를 추정하는 것을 의미할 수 있다. 사용자의 머리가 어떠한 상태인지를 판단하고, 판단된 상태에 따라 사용자의 시선 검출, 동작 인식 및 졸음 검출 등을 식별할 수 있다. The processor 103 may identify the head posture of the user. Here, the head posture of the user may mean estimating the position and state of the user's head. The user's head may be determined, and the user's gaze detection, motion recognition, and drowsiness detection may be identified according to the determined state.

프로세서(103)가 사용자의 머리 자세를 식별하기 위해선 촬상부(101)에서 사용자의 얼굴 부분을 검출 할 수 있어야 한다. 구체적으로, 촬상부(101)에서 촬영된 영상에서 사람의 얼굴을 식별할 수 있어야 한다. In order to identify the posture of the user's head, the processor 103 should be able to detect the face part of the user. In detail, the face of the person should be identified from the image photographed by the imaging unit 101.

촬상부(101)에서 촬영된 영상에서 사람의 얼굴을 식별하기 위해서 프로세서(103)는 촬영된 영상에서 특징점을 설정할 수 있다. 입력된 영상이 사람의 머리를 촬상한 영상인 경우를 가정하였을 때, 프로세서(103)는 얼굴 특징점(facial feature point)을 기 설정된 특징점으로 검출할 수 있다.The processor 103 may set a feature point in the captured image to identify the face of the person in the image captured by the imager 101. Assuming that the input image is an image of a human head, the processor 103 may detect a facial feature point as a preset feature point.

프로세서(103)는 임의의 인간의 얼굴에 대하여 기 저장된 얼굴 모델을 촬상부(101)를 통해 입력된 영상에 적용하여 얼굴 특징점(facial feature point)을 검출할 수 있다. 얼굴 특징점이란, 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선 등에 대한 특징점을 의미한다. 얼굴 모델이란, 임의의 인간의 얼굴을 촬상한 영상을 입력하고, 수동 혹은 자동으로 각 영상에서의 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선 등에 대한 특징점을 선택하고, 선택된 점이 나타내는 얼굴 영역에 대한 정보를 입력하는 동작을 복수의 영상에 대하여 반복한 결과를 의미한다. The processor 103 may detect a facial feature point by applying a pre-stored face model of an arbitrary human face to an image input through the imaging unit 101. The facial feature point means a feature point for eyes, eyebrows, nose, upper lip, lower lip, jawline, and the like. The face model inputs an image of an arbitrary human face, manually or automatically selects feature points for eyes, eyebrows, nose, upper lip, lower lip, jawline, and the like in the face area indicated by the selected point. A result of repeating an operation of inputting information about a plurality of images.

이와 같이 얼굴 모델은, 얼굴 영상으로부터 획득될 수 있는 정보, 즉 얼굴 특징점의 위치에 대한 정보, 색상에 대한 정보, 텍스쳐에 대한 정보, 촬상 위치에 대한 정보 등에 기초한 얼굴 특징점의 3차원 정보와 색상 정보를 포함하고 있는 것이다.As described above, the face model includes three-dimensional information and color information of the facial feature point based on information that can be obtained from the face image, that is, information about the position of the facial feature point, information about the color, information about the texture, and information about the image pickup position. It is to include.

프로세서(103)는 이와 같이 얼굴 모델을 이용하는 다양한 알고리즘을 통하여 입력된 영상에서 얼굴 특징점을 자동으로 검출할 수 있다. 예컨대, AAM(Active Appearance Models) 또는 ASM(Active Shape Models)이 이용될 수 있다. The processor 103 may automatically detect facial feature points in the input image through various algorithms using the face model. For example, Active Appearance Models (AAM) or Active Shape Models (ASM) may be used.

ASM은 눈의 위치를 검출하고, 검출된 눈의 위치를 기준으로 일반적인 모델(generic model)에 따른 다른 부위 예를 들어 코, 입, 눈썹 등의 모양(shape) 정보를 이용하여 위치를 결정하는 모델이다. AAM은 모양 정보뿐만 아니라, 질감 정보(texture information)를 더욱 고려하여 얼굴 특징을 효율적으로 설명할 수 있는 특징점을 검출하는 모델이다.The ASM detects the position of the eye and determines the position using shape information of other parts of the generic model, such as nose, mouth, and eyebrows, based on the detected eye position. to be. AAM is a model that detects feature points that can effectively describe facial features by considering texture information as well as shape information.

AAM은 얼굴 형상(model) 벡터와 얼굴 표면 질감(texture) 벡터에 주성분 분석(PCA)을 적용하여 다양한 사람의 얼굴 통계를 이용하여 만들어진 표본 얼굴 모델에 워핑(warping)하여, 표본 얼굴의 데이터와 정규화된 영상(2D)의 얼굴 데이터의 오차 제곱을 최소화시킨다. 이 데이터를 이용하여 얼굴의 특징점을 찾는다. AAM은 속도 계산을 빨리 할 수 있고 트레킹(Tracking)이 가능하다는 장점이 있다.AAM applies principal component analysis (PCA) to face model vectors and face surface texture vectors to warn sample face models created using a variety of human face statistics to normalize the sample face data. The error square of the face data of the captured image 2D is minimized. Use this data to find facial feature points. AAM has the advantage of speed calculation and tracking.

AAM을 이용하는 경우, 프로세서(103)는 입력된 영상에 포함된 얼굴의 눈, 눈썹, 코, 윗입술, 아랫입술, 턱선에 대한 특징점을 검출하는 정합(fitting)과정을 수행한다.When using the AAM, the processor 103 performs a fitting process of detecting feature points for the eyes, eyebrows, nose, upper lip, lower lip, and jaw line of the face included in the input image.

프로세서(103)는 이와 같은 과정을 통해 수신된 영상으로부터 사용자의 얼굴 특징점을 식별할 수 있다. The processor 103 may identify the facial feature point of the user from the image received through the above process.

한편, 프로세서(103)는 식별된 복수의 얼굴 특징점 가운데 특정 얼굴 특징점을 랜드마크로 설정할 수 있다. 하나의 영상에서 식별되는 얼굴 특징점이 복수 개 있는 경우, 복수의 얼굴 특징점 중에서 일부 특징점을 랜드마크로 설정할 수 있다. The processor 103 may set a specific facial feature point as a landmark among the plurality of identified facial feature points. When there are a plurality of facial feature points identified in one image, some of the feature points may be set as landmarks.

랜드마크는 복수의 얼굴 특징점 중 기 설정된 방식으로 선택된 얼굴 특징점일 수 있다. The landmark may be a facial feature point selected from a plurality of facial feature points in a preset manner.

본 개시의 일 실시 예에 따른 기 설정된 방식은 일정 간격마다 랜드마크로 설정하는 방식일 수 있다. 예를 들어, 턱선을 이루는 100개의 얼굴 특징점이 식별되었다고 가정한다. 이 경우, 100개의 얼굴 특징점 중 20개를 랜드마크로 설정할 수 있다. The preset method according to an embodiment of the present disclosure may be a method of setting a landmark at a predetermined interval. For example, suppose that 100 facial features that make up the jawline have been identified. In this case, 20 of the 100 facial feature points can be set as a landmark.

프로세서(103)는 순서대로 나열된 100개의 얼굴 특징점에서 5개당 1개의 얼굴 특징점을 랜드마크로 설정할 수 있다. The processor 103 may set one facial feature point per five as a landmark from the 100 facial feature points listed in order.

100개의 얼굴 특징점에서 50개가 턱선을 이루는 얼굴 특징점이라고 가정한다. 턱선을 이루는 50개의 얼굴 특징점은 순서대로 배치되어 있을 것이다. 정확히 턱선을 이루는 50개의 얼굴 특징점은 U자형으로 배치되는 얼굴 특징점의 집합일 수 있다. 이 경우, 프로세서(103)는 순서대로 배치된 얼굴 특징점에서 5번째, 10번째, 15번째와 같이 5의 배수에 해당하는 얼굴 특징점을 랜드마크로 설정할 수 있다.It is assumed that 50 out of 100 facial feature points are facial feature points forming a jaw line. The 50 facial features that make up the jawline will be arranged in order. The fifty facial features that form exactly the jawline may be a set of facial features that are arranged in a U shape. In this case, the processor 103 may set the facial feature points corresponding to multiples of 5, such as the fifth, tenth, and fifteenth, to the landmarks in the ordered facial feature points.

식별된 50개의 턱선 특징점 중 일부(20개의 턱선 특징점)를 랜드마크로 설정하면 데이터 분석 및 처리 시간이 단축될 수 있다. 사용자의 머리 자세를 식별하기 위해선 사용자의 얼굴 특징점을 분석해야 하는데, 턱선 특징점50개를 분석하는 것보다 턱선 특징점20개를 분석한다면, 프로세서(103)가 사용자의 머리 자세를 추정하는데 걸리는 처리 시간이 단축될 수 있다.Setting some of the 50 identified jawline feature points (20 jawline feature points) as landmarks can reduce data analysis and processing time. To identify the user's head posture, the user's facial feature points must be analyzed. If the user analyzes 20 jawline features rather than 50 jawline features, the processing time for the processor 103 to estimate the user's head pose is Can be shortened.

한편, 상술한 100, 20, 5의 숫자는 설명을 위한 예시에 불과하고 사용자의 설정 또는 전자 장치(100)의 성능에 따라 변경될 수 있다. The numbers 100, 20, and 5 described above are only examples for description and may be changed according to a user's setting or the performance of the electronic device 100.

또한, 프로세서(103)는 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고, 식별된 랜드마크에 대응되는 가중치를 메모리(102)로부터 획득할 수 있다. In addition, the processor 103 may identify a landmark among the identified facial feature points of the user, and obtain a weight corresponding to the identified landmark from the memory 102.

랜드마크에 대응되는 가중치는 미리 설정되어 있는 특정 값일 수 있다. 그리고, 랜드마크에 대응되는 가중치는 얼굴 특징점의 위치에 따라 다른 값을 가질 수 있다. 예를 들어, 동일한 턱선을 나타내는 랜드마크라고 하더라도 턱 끝 부분의 랜드마크에 더 작은 가중치를 적용할 수 있다. The weight corresponding to the landmark may be a predetermined value. The weight corresponding to the landmark may have a different value depending on the position of the facial feature point. For example, even if the landmark represents the same jawline, a smaller weight may be applied to the landmark at the tip of the jaw.

도 3을 참고하면, 복수개의 랜드마크 가운데 턱 끝 부분의 랜드마크 (10번), 입가에 해당하는 랜드마크(49번 및 55번) 그리고 눈가에 해당하는 랜드마크(37번, 40번, 43번, 46번)에 더 작은 가중치를 적용할 수 있다. Referring to FIG. 3, a landmark (No. 10) at the tip of the jaw, a landmark (49 and 55) corresponding to the corner of the mouth, and a landmark (No. 37, 40, 43) corresponding to the eyes are shown. And 46).

상기 언급한 랜드마크(10,37,40,43,46,49,55번)들은 상대적으로 움직임이 많은 랜드마크에 해당할 수 있다. 프로세서(103)는 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 적용할 수 있다. 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 적용하는 이유는 사용자의 머리 자세를 더욱 정확하게 식별하기 위함이다. 사용자의 머리자세가 변하지 않았음에도 움직임이 많은 랜드마크에 의해 잘못 식별되는 경우가 있을 수 있다.The above-mentioned landmarks 10, 37, 40, 43, 46, 49, and 55 may correspond to relatively high landmarks. The processor 103 may apply a small weight to a relatively moving landmark. The reason why small weights are applied to landmarks that are relatively in motion is to identify the user's head posture more accurately. There may be a case where the movement is misidentified by many landmarks even though the head posture of the user has not changed.

예를 들어, 사용자가 정면을 바라 보고 있는 동작을 유지하고 있다고 가정한다. 사용자는 정면을 바라보고 있지만, 대화 중 크게 웃는 다면 입가, 턱끝, 눈가 부분이 다른 부분보다 더 많이 움직일 것이다. 이 경우, 사용자의 랜드마크를 파악하는 프로세서(103)는 사용자의 머리 자세가 정면을 바라보고 있음에도 불구하고 잘못 식별할 가능성이 높다. 프로세서(103)는 사용자의 머리 자세를 식별하기 위해 랜드마크를 이용하기 때문에, 특정 랜드마크의 움직임에 의해 식별 결과가 좌우될 가능성이 높다. For example, suppose that the user maintains the motion of looking at the front. The user is looking straight ahead, but if he smiles loudly during the conversation, his mouth, chin, and eyes will move more than the rest. In this case, the processor 103 which grasps the user's landmark is likely to misidentify the head, even though the user's head posture is looking straight ahead. Since the processor 103 uses the landmark to identify the head posture of the user, the identification result is likely to be influenced by the movement of the specific landmark.

이러한 문제를 해결하기 위하여 프로세서(103)는 상대적으로 움직임이 많은 랜드마크에 작은 가중치를 부여할 수 있다. 그리고, 프로세서(103)는 획득된 가중치를 랜드마크에 적용하여 사용자의 머리 자세를 식별할 수 있다. In order to solve such a problem, the processor 103 may assign a small weight to a relatively high landmark. In addition, the processor 103 may identify the user's head posture by applying the obtained weight to the landmark.

또한, 프로세서(103)는 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다. In addition, the processor 103 may apply a weight that is relatively smaller than other landmarks to the landmarks constituting the outside of the face among the identified landmarks of the user.

또한, 프로세서(103)는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In addition, the processor 103 assigns a first weight to a landmark corresponding to at least one of eyes, an eyebrow, and a nose with less movement, and a second smaller than the first weight to a landmark corresponding to at least one of a mouth and a jaw. Can be weighted.

이 경우, 프로세서(103)는 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 가중치를 적용하여 사용자의 머리 자세를 식별할 수 있다. In this case, the processor 103 may identify the user's head posture by applying a weight to a difference value between the landmark of the user's face and the landmark of the reference face data.

기준 얼굴 데이터란 사용자의 머리 자세를 식별하기 위해 기준이 되는 데이터를 의미할 수 있다. 구체적으로, 기준 얼굴 데이터란 사용자의 머리 자세에 따른 랜드마크 (또는 얼굴 특징점)를 저장하고 프로세서(103)에서 식별되는 랜드마크와 비교될 수 있다. 기준 얼굴 데이터는 적어도 한 개 이상의 데이터를 포함할 수 있다.The reference face data may refer to data which is a reference for identifying a posture of a user. In detail, the reference face data may store landmarks (or facial feature points) according to a user's head posture and may be compared with landmarks identified by the processor 103. The reference face data may include at least one data.

프로세서(103)는 기 저장된 복수의 기준 얼굴 데이터에 포함된 정보를 프로세서(103)가 식별한 랜드마크와 비교하여 가장 차이가 적은 기준 얼굴 데이터를 식별할 수 있다. 예를 들어, 비교된 랜드마크의 위치 정보의 차이가 가장 적은 기준 얼굴 데이터를 식별하면 프로세서(103)는 사용자가 기준 얼굴 데이터에 대응되는 머리 자세를 현재 취하고 있다고 추측할 수 있다. The processor 103 may identify the reference face data having the smallest difference by comparing the information included in the plurality of stored reference face data with the landmark identified by the processor 103. For example, when identifying the reference face data having the smallest difference in the position information of the compared landmarks, the processor 103 may infer that the user is currently taking a head posture corresponding to the reference face data.

또한, 프로세서(103)가 분산값을 이용하여 랜드마크에 적용될 가중치를 결정할 수 있다. 상술한 예시에서 기준 얼굴 데이터는 한 개의 대표 데이터를 의미하는 것으로 서술 하였지만, 기준 얼굴 데이터는 복수 개일 수 있다. 예를 들어, 전자 장치(100)는 기준 얼굴 데이터에 포함된 랜드마크들을 모두 분석하여 대응되는 랜드마크의 분산값을 획득할 수 있다. 획득된 분산값은 얼굴 형태의 왜곡(Deformation)이 얼마나 많은 영향을 받는지를 나타내는 척도가 될 수 있다. 프로세서(103)는 분산값이 커질수록 왜곡이 많이 일어난다고 볼 수 있기 때문에 분산값이 큰 랜드마크에는 작은 가중치를 부여할 수 있다. In addition, the processor 103 may determine a weight to be applied to the landmark using the variance value. In the above-described example, the reference face data has been described as meaning one representative data, but there may be a plurality of reference face data. For example, the electronic device 100 may analyze all of the landmarks included in the reference face data to obtain a dispersion value of the corresponding landmark. The obtained variance may be a measure of how much the deformation of the face shape is affected. Since the processor 103 may be regarded as more distortion occurs as the variance value increases, the processor 103 may give a small weight to a landmark having a large variance value.

그리고, 프로세서(103)는 랜드마크의 분산값을 측정하기 위해 기준 얼굴 데이터의 동일한 부분의 랜드마크끼리 비교할 수 있다. 예를 들어, 복수개의 기준 얼굴 데이터는 각각 사람의 얼굴에 포함된 랜드마크 정보를 포함할 수 있다. 여기서, 프로세서(103)는 제1 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크와 제2 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크 그리고 제3 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크를 비교할 수 있다. 프로세서(103)는 3가지의 동일 부분의 랜드마크를 비교하여 분산값 및 턱 끝 부분의 가중치를 결정할 수 있다. 프로세서(103)는 위와 같은 방식으로 각각의 기준 얼굴 데이터마다 대응되는 부분의 랜드마크를 비교하여 분산값 및 가중치를 결정할 수 있다. In addition, the processor 103 may compare landmarks of the same portion of the reference face data to measure the variance value of the landmarks. For example, the plurality of reference face data may include landmark information included in each person's face. Here, the processor 103 may include the landmark of the tip of the jaw included in the first reference face data, the landmark of the tip of the jaw included in the second reference face data, and the land of the tip of the jaw included in the third reference face data. The marks can be compared. The processor 103 may compare the landmarks of the three identical parts to determine the variance value and the weight of the jaw end. The processor 103 may determine the variance value and the weight by comparing the landmarks of the corresponding portions for each reference face data in the above manner.

구체적으로, 랜드마크는 3차원 위치 정보를 포함하고, 프로세서(103)는 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 사용자의 머리 자세를 식별할 수 있다.In detail, the landmark includes three-dimensional location information, and the processor 103 may identify a user's head posture by applying a Perspective n Point (PnP) method to the three-dimensional location information.

한편, 프로세서(103)는 식별된 랜드마크를 이용하여 사용자의 상태 및 사용자의 시선 중 적어도 하나를 식별할 수 있다.The processor 103 may identify at least one of the user's state and the user's gaze by using the identified landmark.

구체적으로, 프로세서(103)는 촬상부(101)에서 사용자를 촬상한 영상에서 사용자 시선을 검출할 수 있고, 검출된 시선이 디스플레이부에서 표시되는 영상(즉, 사용자를 촬상한 영상)의 어느 곳에 위치하는지 판단할 수 있다. 그리고 프로세서(103)는 디스플레이부에 표시된 영상에서 사용자 기 설정된 시간 이상 응시한 영역을 관심 영역으로 획득할 수 있다.In detail, the processor 103 may detect a user's line of sight from an image of the user captured by the imaging unit 101, and the detected line of sight may be located at an image (that is, an image of the user) displayed on the display unit. You can determine if it is located. The processor 103 may acquire, as the ROI, an area gazed at the user for a predetermined time from the image displayed on the display unit.

프로세서(103)는 다양한 알고리즘을 이용하여, 사용자 시선을 검출할 수 있다. 일 예로, 촬상부(101)는 적외선을 조사하는 발광부를 구비한 장치일 수 있고, 촬상시 적외선을 사용자의 눈에 조사할 수 있다. 촬상 영상에선 각막에서 반사된 적외선이 나타나고, 프로세서(103)는 반사된 적외선의 위치를 이용하여 홍채와 동공을 구분하여 동공을 검출하고, 이로부터 시선 정보를 획득할 수 있다.The processor 103 may detect a user's gaze using various algorithms. For example, the imaging unit 101 may be a device having a light emitting unit for irradiating infrared rays, and may irradiate infrared rays to the eyes of a user during imaging. In the captured image, infrared rays reflected from the cornea appear, and the processor 103 may detect the pupil by dividing the iris and the pupil by using the position of the reflected infrared rays, and obtain eye gaze information therefrom.

또한, 프로세서(103)는 촬상 영상에서 객체의 특징을 찾는 기법(예컨대, Haar-like features)을 이용하여 눈의 위치를 검출하고, 가장자리 검출(edge detection) 기법을 이용하여 눈의 위치에서 홍채와 동공을 검출하고, 홍채와 동공의 상대적인 위치에 기반하여 사용자의 시선을 검출할 수 있다.In addition, the processor 103 detects the position of the eye using a technique (eg, Haar-like features) of finding an object feature in the captured image, and uses the edge detection technique to detect the position of the eye. The pupil may be detected, and the gaze of the user may be detected based on the relative positions of the iris and the pupil.

그리고 프로세서(103)는 사용자가 디스플레이부에 표시된 영상의 어느 부분을 응시하였는지 판단하기 위해, 검출된 사용자 시선을 촬상 영상에 투영시킨다. 구체적으로, 메모리(102)에는 촬상부(101)의 위치와 디스플레이부에서 영상의 위치 간의 상관 관계에 대한 데이터가 저장되어 있고, 이를 이용하여, 프로세서(103)는 촬상 영상에서 검출된 사용자 시선의 좌표를 디스플레이부에 표시된 영상을 기준으로 변환함으로써, 사용자가 디스플레이부에 표시된 촬상 영상에서 응시한 영역을 검출할 수 있다.The processor 103 projects the detected user gaze on the captured image to determine which part of the image displayed on the display unit by the user. In detail, the memory 102 stores data about a correlation between the position of the image capturing unit 101 and the position of the image in the display unit, and by using this, the processor 103 may determine the user's gaze detected in the captured image. By converting the coordinates based on the image displayed on the display unit, the user can detect a gaze gaze in the captured image displayed on the display unit.

한편, 프로세서(103)는 사용자별로 다른 가중치를 부여할 수 있다. 프로세서(103)는 촬상부(101)를 통해 식별되는 사용자의 얼굴을 분석하여 특정 사용자임을 식별할 수 있고, 사용자별로 다르게 저장된 가중치를 적용할 수 있다.Meanwhile, the processor 103 may assign different weights to each user. The processor 103 may identify the specific user by analyzing the face of the user identified through the imaging unit 101, and may apply differently stored weights for each user.

예를 들어, 동일한 턱선 부분에 가중치를 적용한다고 가정할 때, 사용자에 따라 가중치가 다르게 적용될 수 있다. For example, assuming that the weight is applied to the same jawline portion, the weight may be differently applied according to the user.

한편, 프로세서(103)는 기저장된 사용자 정보가 검색되지 않는 다면, 새로운 사용자 정보를 생성할 수 있다. 구체적으로, 프로세서(103)는 촬상부(101)에서 촬상된 영상에서 사용자 얼굴을 검출하고, 검출된 얼굴에서 눈, 미간, 코, 콧구멍, 입술, 윤곽선의 얼굴 특징점을 획득한다. 이와 같이 촬상 영상에서 획득된 얼굴 특징점들에 기초하여, 프로세서(103)는 사용자 정보를 생성한다.Meanwhile, if previously stored user information is not retrieved, the processor 103 may generate new user information. Specifically, the processor 103 detects a user's face from the image captured by the image capturing unit 101, and acquires facial feature points of eyes, the middle of the eye, the nose, the nostrils, the lips, and the outline from the detected face. As described above, the processor 103 generates user information based on the facial feature points acquired in the captured image.

한편, 지금까지 가중치를 부여하는 동작을 설명함에 있어, 기설정된 가중치를 부여하는 것으로 설명하였다. 하지만, 프로세서(103)는 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다. On the other hand, in the above description of the weighting operation, it has been described as giving a predetermined weight. However, the processor 103 may acquire a degree of movement of the landmark identified on the face of the user, and map and store a relatively large weight to a landmark having a relatively high degree of movement.

이 경우, 프로세서(103)는 일정 시간 동안 사용자의 얼굴을 촬상하여 분석할 수 있다. 구체적으로, 프로세서(103)는 일정 시간 동안 사용자의 얼굴을 촬상하고 사용자의 얼굴 특징점의 변화를 분석할 수 있다. 프로세서(103)는 얼굴 특징점의 변화를 통해 사용자의 얼굴 특징점 가운데 어느 부분이 가장 많이 변동 되는지 여부를 판단할 수 있다.In this case, the processor 103 may photograph and analyze the face of the user for a predetermined time. In detail, the processor 103 may photograph the face of the user for a predetermined time and analyze the change of the facial feature point of the user. The processor 103 may determine which part of the user's face feature point is changed the most by changing the face feature point.

프로세서(103)는 사용자의 머리 자세가 유지되고 있음에도 얼굴 특징점이 상대적으로 많이 움직이는 부분을 식별할 수 있다. 예를 들어, 사용자가 정면을 바라보고 있는 머리 자세로 판단되었음에도 얼굴 특징점이 가장 많이 변하는 부위인 턱끝, 입가, 눈가 등을 분석된 데이터를 통해 판단할 수 있다. The processor 103 may identify a portion where the facial feature points move relatively much even though the head posture of the user is maintained. For example, even though it is determined that the user is in a head posture looking at the front, the analyzed region may determine the chin tip, mouth, eye area, and the like where the facial feature points change most.

상술한 예시에서는 정면을 바라보는 자세만을 설명하였지만, 이는 설명을 위한 한정에 불과하며, 프로세서(103)는 다양한 자세에서의 얼굴 특징점의 변화를 판단할 수 있다. In the above-described example, only the frontal posture has been described, but this is only a limitation for description, and the processor 103 may determine a change in facial feature points in various postures.

또한, 상술한 전자 장치(100)는 차량에 구비된 장치일 수 있다. 이 경우, 프로세서(103)는 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적할 수 있다.In addition, the electronic device 100 described above may be a device provided in a vehicle. In this case, the processor 103 may track at least one of the driver's state and the driver's gaze based on the identified head posture of the user.

도 2는 사용자의 얼굴을 식별하는 방법을 설명하기 위한 도면이다.2 is a diagram for describing a method of identifying a face of a user.

도 2를 참조하면, 사용자의 얼굴을 자동으로 식별하는 방법에는 다양한 방식이 존재 할 수 있다. Referring to FIG. 2, various methods may exist for automatically identifying a face of a user.

전자 장치(100)는 촬상부를 통해 수신되는 이미지에서 사용자의 얼굴 위치를 식별할 수 있다. The electronic device 100 may identify the location of the face of the user in the image received through the imaging unit.

구체적으로, 도 2(a)를 참조하면, 사용자의 눈, 눈썹, 코 및 입 등을 기초로 이미지에 포함된 사용자의 모든 얼굴(201,202,203,204)을 식별할 수 있다. Specifically, referring to FIG. 2A, all faces 201, 202, 203, and 204 of the user included in the image may be identified based on the eyes, eyebrows, nose, and mouth of the user.

또한, 도 2(b)를 참조하면, 사용자의 눈, 눈썹, 코, 입 및 얼굴 전체의 형태를 포함하여 이미지에 포함된 사용자의 모든 얼굴(211,212,213,214,215)을 식별할 수 있다. 여기서, 얼굴 전체의 형태를 파악하기 위해 사용자의 턱, 귀 등을 판단할 수 있고 얼굴 전체의 외곽선을 판단할 수 있다. 얼굴 전체의 외곽선은 얼굴 전체의 윤곽을 나타내는 정보를 의미할 수 있다. In addition, referring to FIG. 2B, all of the faces 211, 212, 213, 214, and 215 of the user included in the image may be identified, including the shape of the user's eyes, eyebrows, nose, mouth, and face. Here, in order to determine the shape of the entire face, the user's chin, ear, etc. can be determined, and the outline of the entire face can be determined. The outline of the entire face may refer to information representing the outline of the entire face.

도 2(a)에서는 얼굴 전체의 형태를 포함하지 않기 때문에 사용자의 턱이 움직이는 정도를 파악할 수 없지만, 도 2(b)에서는 얼굴 전체의 형태를 포함하기 때문에 사용자의 턱 부분이 움직이는 정도를 파악할 수 있다. In Figure 2 (a) does not include the shape of the entire face of the user can not determine the degree of movement of the user's jaw, but in Figure 2 (b) includes the shape of the entire face can determine the degree of movement of the user's chin. have.

전자 장치(100)는 사용자의 설정 또는 최적의 선택에 따라 사용자의 얼굴을 자동으로 식별하는 방법을 설정할 수 있다. 예를 들어, 전자 장치(100)는 도 2(a) 또는 도 2(b) 방법에 따라 사용자의 얼굴을 식별할 수 있으며, 각각의 방법은 사용자의 설정에 따라 달라질 수 있다. 최소한의 데이터를 분석 및 처리하기 위해선 도 2(a)에 의한 방법이 바람직할 수 있다. 또한, 사용자의 머리 자세를 정확히 식별하기 위해선 도 2(b)에 의한 방법을 선택하는 것이 바람직할 수 있다. 따라서, 전자 장치(100)는 사용자의 설정 또는 최적의 선택에 따라 다른 방식을 적용하여 사용자의 얼굴을 자동으로 식별할 수 있다. The electronic device 100 may set a method of automatically identifying the face of the user according to the user's setting or optimal selection. For example, the electronic device 100 may identify the face of the user according to the method of FIG. 2 (a) or FIG. 2 (b), and each method may vary according to the user's setting. In order to analyze and process the minimal data, the method according to FIG. 2 (a) may be desirable. In addition, it may be desirable to select the method according to FIG. 2 (b) to accurately identify the head posture of the user. Therefore, the electronic device 100 may automatically identify the user's face by applying another method according to the user's setting or optimal selection.

여기서, 최적의 선택이란 사용자가 전자 장치(100)를 동작하게 하는 모드와 관련될 수 있다. 예를 들어, 사용자가 전자 장치(100)의 동작 모드를 절전 또는 최소 처리 시간을 목적으로 하는 모드로 설정하였다면 비교적 적은 데이터를 이용하는 도 2(a)에 의한 방식을 선택할 수 있다. 한편, 사용자가 정확한 식별을 목적으로 하는 모드로 설정하였다면 얼굴의 전체적인 특징점을 이용하는 도 2(b)에 의한 방식을 선택할 수 있다. Here, the optimal selection may be related to the mode in which the user operates the electronic device 100. For example, if the user sets the operation mode of the electronic device 100 to a mode for the purpose of power saving or minimum processing time, the method of FIG. 2A using relatively little data may be selected. On the other hand, if the user is set to the mode for the purpose of accurate identification can choose the method according to Figure 2 (b) using the overall feature points of the face.

도 3은 사용자 얼굴 이미지에 랜드마크를 설정하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of setting a landmark in a user face image.

도 3을 참조하면, 전자 장치(100)는 촬상부를 통해 수신한 이미지에서 사용자의 얼굴(301)을 식별할 수 있고, 복수개의 얼굴 특징점을 식별할 수 있다. 여기서, 얼굴 특징점은 사람의 얼굴을 나타내는 윤곽선을 의미할 수 있다. Referring to FIG. 3, the electronic device 100 may identify the user's face 301 from the image received through the imaging unit, and may identify a plurality of facial feature points. Here, the facial feature point may mean an outline representing a face of a person.

전자 장치(100)는 복수개의 얼굴 특징점에서 기설정된 방식으로 랜드마크(1번~68번)를 설정할 수 있다. The electronic device 100 may set the landmarks (No. 1 to No. 68) in a preset manner at the plurality of facial feature points.

랜드마크는 복수의 얼굴 특징점 중 기 설정된 방식으로 선택된 얼굴 특징점일 수 있으며, 랜드마크는 얼굴 특징점 가운데 일부분을 의미하는 것일 수 있다.The landmark may be a facial feature point selected in a preset manner among the plurality of facial feature points, and the landmark may mean a part of the facial feature points.

한편, 본 개시의 일 실시 예에 따른 기 설정된 방식은 일정 간격마다 랜드마크로 설정하는 방식일 수 있다.Meanwhile, the preset method according to an embodiment of the present disclosure may be a method of setting a landmark at a predetermined interval.

전자 장치(100)는 식별된 사용자의 얼굴 부분에서 특정 부분을 랜드마크로 설정할 수 있다. 특정 부분을 판단하기 위해서 사전에 정의한 특징점의 위치정보를 설정할 있다. The electronic device 100 may set a specific portion as a landmark on the identified face portion of the user. In order to determine a specific part, location information of a predefined feature point may be set.

전자 장치(100)는 사용자의 얼굴을 식별하기 위해 얼굴 특징점을 이용할 수 있다. 도 3을 참고하면, 가장 외곽에 있는 얼굴 특징점을 이어 사용자의 얼굴 부분으로 식별할 수 있다. 예를 들어, 전자 장치(100)는 얼굴 특징점 4번, 19번, 26번, 10 번을 연결하는 사각형을 사용자의 얼굴로 식별할 수 있다.The electronic device 100 may use facial feature points to identify the user's face. Referring to FIG. 3, the outermost facial feature point may be identified as the face part of the user. For example, the electronic device 100 may identify a rectangle connecting the face feature points 4, 19, 26, and 10 as the face of the user.

여기서, 전자 장치(100)는 각각의 랜드마크에 가중치를 부여할 수 있으며, 각각의 랜드마크마다 서로 다른 가중치를 부여할 수 있다. Here, the electronic device 100 may assign a weight to each landmark, and may assign different weights to each landmark.

도 3에서는 각각의 랜드마크에 가중치를 부여하는 것으로 설명하였지만, 실제로 구현시에는 랜드마크를 그룹핑하여 그룹마다 동일한 가중치를 부여할 수 있다.In FIG. 3, each of the landmarks is weighted, but in actual implementation, landmarks may be grouped to give the same weight for each group.

도 4는 랜드마크를 그룹핑하는 방법을 설명하기 위한 도면이다.4 is a diagram for describing a method of grouping landmarks.

도 4를 참고하면, 전자 장치(100)는 복수개의 얼굴 특징점 가운데 일부를 랜드마크(1번~68번)로 설정하고 사용자의 얼굴(401)을 식별할 수 있다. Referring to FIG. 4, the electronic device 100 may set some of the plurality of facial feature points as landmarks (numbers 1 to 68) and identify the user's face 401.

여기서, 전자 장치(100)는 사용자의 얼굴에 설정되어 있는 랜드마크를 그룹화 할 수 있다. 예를 들어, 사용자의 얼굴을 턱선을 포함하는 얼굴 외곽부분, 눈, 코, 입 등으로 나눌 수 있으며, 전자 장치(100)는 랜드마크를 상기 얼굴의 각 부분(얼굴 외곽 부분, 눈, 코, 입)으로 그룹화 할 수 있다. Here, the electronic device 100 may group the landmarks set on the face of the user. For example, the user's face may be divided into a face outer portion including the jaw line, eyes, a nose, a mouth, and the like, and the electronic device 100 may mark a landmark in each part of the face (face outer portion, eyes, nose, Group).

도 4를 참고하면, 전자 장치(100)는 얼굴 외곽 부분의 랜드마크(1번~27번)를 그룹4로, 코 부분의 랜드마크(28번~36번)를 그룹 2로, 눈 부분의 랜드마크(37번~48번)를 그룹 3으로, 입 부분의 랜드마크(49번~68번)를 그룹 1로 설정할 수 있다. 그리고, 각 그룹별로 서로 다른 가중치를 부여할 수 있다. 구체적으로, 그룹1에 동일한 가중치를 부여하지만 그룹2에는 그룹 1보다 작거나 큰 가중치를 부여하는 방식을 의미할 수 있다. 전자 장치(100)는 이와 같은 방식으로 각각의 그룹별로 다른 가중치를 부여할 수 있다. Referring to FIG. 4, the electronic device 100 may define a landmark (No. 1 to No. 27) of the outer portion of the face as a group 4, a landmark (No. 28 to 36) of the nose portion as a group 2, and The landmarks (No. 37 to No. 48) can be set to Group 3, and the landmarks (No. 49 to No. 68) of the mouth can be set to Group 1. In addition, different weights may be assigned to each group. In more detail, this may mean a method in which group 1 is given the same weight but group 2 is smaller or larger than group 1. The electronic device 100 may assign different weights to each group in this manner.

한편, 각각의 그룹별로 다른 가중치를 부여하는 것은 각각의 그룹별로 서로 다른 가중치가 부여되는 것을 의미할 수 있다. 하지만, 반드시 그룹별로 모두 다른 가중치가 적용되어야 한다는 것을 의미하는 것은 아니다. 사용자의 설정 또는 최적의 선택에 따라서 그룹 1과 그룹2에 동일한 가중치가 적용되고 그룹 3 및 그룹 4에는 그룹 1과 다른 가중치가 적용될 수도 있다.On the other hand, assigning different weights to each group may mean that different weights are assigned to each group. However, this does not necessarily mean that different weights are applied to each group. According to the user's setting or optimal selection, the same weight may be applied to Group 1 and Group 2, and different weights may be applied to Group 3 and Group 4 than Group 1.

한편, 도 4를 설명함에 있어 얼굴 외곽 부분을 그룹 4로 표시하고 랜드마크 1번부터 27번으로 이루어져 있다고 하였지만, 실제 구현시에는 얼굴 외곽 부분을 나누어 턱선 부분(1번~17번) 및 머리 부분(18번~27번)으로 구분할 수 있다. 일반적으로 사용자의 대화 중 머리 부분이 잘 움직이지 않고 턱선 부분이 상대적으로 많이 움직일 수 있다. 이에 전자 장치(100)는 턱선 부분(1번~17번)에 더 작은 가중치를 부여할 수 있다. Meanwhile, in the description of FIG. 4, the outer part of the face is displayed as a group 4 and landmarks 1 to 27 are included, but in actual implementation, the outer part of the face is divided into the jaw line part (No. 1 to No. 17) and the head part. (Nos. 18-27). Generally, the head part does not move well during the conversation of the user, and the jaw line part may move relatively much. Accordingly, the electronic device 100 may give a smaller weight to the jaw line portion (No. 1 to No. 17).

도 5는 본 개시의 일 실시 예에 따른 머리 자세를 추정하는 방법을 설명하기 위한 도면이다.5 is a diagram for describing a method of estimating a head posture according to an exemplary embodiment.

도 5(a)를 참조하면, 전자 장치(100)는 랜드마크 검출 알고리즘을 통해 실시간으로 사용자의 얼굴에 있는 얼굴 특징점을 식별할 수 있다. 또한, 식별된 얼굴 특징점에서 랜드마크를 설정하여 사용자의 얼굴 부분을 식별할 수 있다. 도 5(a)에서는 얼굴 외곽 부분 중 턱선 부분만을 검출하는 방식이 적용되었다.Referring to FIG. 5A, the electronic device 100 may identify facial feature points on a face of a user in real time through a landmark detection algorithm. In addition, a landmark may be set at the identified facial feature to identify a face part of the user. In FIG. 5 (a), a method of detecting only the jaw line part of the outer face part is applied.

전자 장치(100)는 검출된 랜드마크를 이용하여 랜드마크에 포함된 위치 정보를 계산할 수 있다. 여기서, 위치 정보는 2차원 또는 3차원의 정보일 수 있다. The electronic device 100 may calculate location information included in the landmark by using the detected landmark. Here, the location information may be two-dimensional or three-dimensional information.

도 5 (b)를 참조하면, 전자 장치(100)는 2차원 및 3차원의 위치 정보를 모두 이용하여, 두가지 정보 사이에서 Projection Matrix를 구하는 PnP(Perspective n Point) 방법을 적용할 수 있다. 그리고, 전자 장치(100)는 Projection Matrix내의 파라미터인 R(Roation)성분과 t(Translation)성분을 계산하여 결국 머리 자세를 추정할 수 있는 정보를 획득할 수 있다. 전자 장치(100)는 계산된 PnP의 R성분을 이용하여 사용자의 머리 자세를 추정할 수 있다. R성분은 (Roll, Pitch, Yaw)로 구성될 수 있으며 정면을 보고 있는 경우 (0,0,0)의 값을 가질 수 있다.Referring to FIG. 5B, the electronic device 100 may apply a Perspective n Point (PnP) method for obtaining a projection matrix between two pieces of information using both two-dimensional and three-dimensional location information. In addition, the electronic device 100 may obtain information for eventually estimating the head posture by calculating the R (Roation) component and the t (Translation) component which are parameters in the projection matrix. The electronic device 100 may estimate the head posture of the user using the calculated R component of PnP. The R component may be composed of (Roll, Pitch, Yaw) and may have a value of (0,0,0) when looking at the front.

도 6은 랜드마크에 가중치를 부여하는 방법을 설명하기 위한 도면이다.6 is a diagram for describing a method of assigning a weight to a landmark.

전자 장치(100)는 Projection Matrix를 계산하는 과정에 있어, 얼굴 형태의 왜곡(Deformation)의 영향을 줄이기 위하여 가중치를 부여할 수 있다. 구체적으로, 전자 장치(100)는 랜드마크에 가중치를 부여하여 얼굴 형태의 왜곡을 줄일 수 있고, 얼굴 형태의 왜곡이 줄어들면 머리자세를 정확하게 식별할 수 있다. 이 경우, 전자 장치(100)는 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 가중치를 적용하여 사용자의 머리 자세를 식별할 수 있다. In the process of calculating the projection matrix, the electronic device 100 may assign a weight to reduce the influence of deformation of the face shape. In detail, the electronic device 100 may reduce the distortion of the face shape by weighting the landmark, and may accurately identify the head posture when the distortion of the face shape is reduced. In this case, the electronic device 100 may identify the user's head posture by applying a weight to a difference value between the landmark of the user's face and the landmark of the reference face data.

기준 얼굴 데이터란 사용자의 머리 자세를 식별하기 위해 기준이 되는 데이터를 의미할 수 있다. 구체적으로, 기준 얼굴 데이터란 사용자의 머리 자세에 따른 랜드마크 (또는 얼굴 특징점)를 저장하고 전자 장치(100)에서 식별되는 랜드마크와 비교될 수 있다.The reference face data may refer to data which is a reference for identifying a posture of a user. In detail, the reference face data may store a landmark (or facial feature point) according to a user's head posture and may be compared with a landmark identified by the electronic device 100.

전자 장치(100)는 기저장된 복수의 기준 얼굴 데이터에 포함된 정보를 전자 장치(100)가 식별한 랜드마크와 비교하여 가장 차이가 적은 기준 얼굴 데이터를 식별할 수 있다. 예를 들어, 비교된 랜드마크의 위치 정보의 차이가 가장 적은 기준 얼굴 데이터를 식별하면 전자 장치(100)는 사용자가 기준 얼굴 데이터에 대응되는 머리 자세를 현재 취하고 있다고 추측할 수 있다. The electronic device 100 may identify the reference face data having the smallest difference by comparing the information included in the plurality of previously stored reference face data with a landmark identified by the electronic device 100. For example, when identifying the reference face data having the smallest difference in the location information of the compared landmarks, the electronic device 100 may infer that the user is currently taking a head posture corresponding to the reference face data.

또한, 전자 장치(100)가 분산값을 이용하여 랜드마크에 적용될 가중치를 결정할 수 있다. 예를 들어 기준 얼굴 데이터에 포함된 랜드마크들을 모두 분석하여 대응되는 랜드마크의 분산값을 획득할 수 있다. 획득된 분산값은 얼굴 형태의 왜곡(Deformation)이 얼마나 많은 영향을 받는지를 나타내는 척도가 될 수 있다. 전자 장치(100)는 분산값이 커질수록 왜곡이 많이 일어난다고 볼 수 있기 때문에 분산값이 큰 랜드마크에는 작은 가중치를 부여할 수 있다. In addition, the electronic device 100 may determine a weight to be applied to the landmark by using the variance value. For example, all the landmarks included in the reference face data may be analyzed to obtain a variance value of the corresponding landmark. The obtained variance may be a measure of how much the deformation of the face shape is affected. Since the electronic device 100 may be regarded as more distortion occurs as the dispersion value increases, the electronic device 100 may give a small weight to a landmark having a large dispersion value.

그리고, 전자 장치(100)는 랜드마크의 분산값을 측정하기 위해 기준 얼굴 데이터의 동일한 부분의 랜드마크끼리 비교할 수 있다. 예를 들어, 복수개의 기준 얼굴 데이터는 각각 사람의 얼굴에 포함된 랜드마크 정보를 포함할 수 있다. 여기서, 전자 장치(100)는 제1 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크와 제2 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크 그리고 제3 기준 얼굴 데이터에 포함된 턱 끝 부분의 랜드마크를 비교할 수 있다. 전자 장치(100)는 3가지의 동일 부분의 랜드마크를 비교하여 분산값 및 턱 끝 부분의 가중치를 결정할 수 있다. 전자 장치(100)는 위와 같은 방식으로 각각의 기준 얼굴 데이터마다 대응되는 부분의 랜드마크를 비교하여 분산값 및 가중치를 결정할 수 있다. The electronic device 100 may compare landmarks of the same portion of the reference face data to measure dispersion values of the landmarks. For example, the plurality of reference face data may include landmark information included in each person's face. Here, the electronic device 100 may include the landmark of the tip of the jaw included in the first reference face data, the landmark of the tip of the jaw included in the second reference face data, and the tip of the jaw included in the third reference face data. Compare landmarks. The electronic device 100 may compare the landmarks of the three same parts to determine the variance value and the weight of the tip of the jaw. The electronic device 100 may determine the variance value and the weight by comparing the landmarks of the portions corresponding to the respective reference face data in the above manner.

도 6을 참고하면, 전자 장치(100)가 사용자의 얼굴 특징점 중에서 일부를 랜드마크로 설정한 이후에, 랜드마크마다 서로 다른 가중치를 부여할 수 있다. 위에서 설명한 것처럼 상대적으로 움직임이 많은 부분의 랜드마크에 더 작은 가중치를 부여할 수 있다. 상대적으로 움직임이 많은지 여부는 랜드마크의 상대적 위치를 통해 파악할 수 있다. 이는 기설정된 값에 의해 정해지거나, 일정 시간 동안 사용자의 움직임을 통해 파악할 수도 있다. Referring to FIG. 6, after the electronic device 100 sets some of the facial feature points of the user as a landmark, the electronic device 100 may assign different weights to the landmarks. As described above, smaller weights may be assigned to landmarks of relatively moving parts. Whether there is a lot of movement can be determined by the relative position of the landmark. This may be determined by a predetermined value, or may be determined through user movement for a predetermined time.

도 6에서는 상대적으로 움직임이 많은 랜드마크일수록 원을 크게 표시하였다. 턱 끝, 입가, 코 끝, 눈가 등이 가장 움직임이 많은 부분으로 판단될 수 있고, 도 6에서 이러한 부분이 상대적으로 움직임이 많다는 부분임을 나타내기 위해 큰 원으로 표시하였다. 그리고 전자 장치(100)는 상대적으로 움직임이 많은 턱 끝, 입가, 코 끝, 눈가 부분 등에 가중치를 작게 부여하여 머리 자세를 정확하게 식별할 수 있다.In FIG. 6, the larger the landmark, the larger the circle. The tip of the jaw, the mouth, the tip of the nose, the edge of the eyes can be judged as the most moving parts, and in FIG. 6, these parts are indicated by large circles to indicate that the moving parts are relatively high. In addition, the electronic device 100 may accurately identify the head posture by assigning a small weight to the chin tip, the mouth, the tip of the nose, and the corner of the eye which are relatively in motion.

도 7은 PnP(Perspective n Point)를 설명하기 위한 도면이다.7 is a diagram for describing a perspective n point (PnP).

PnP(Perspective n Point) 방법은 2차원 위치 정보 및 3차원 위치 정보가 서로 1:1 매핑이되는 조건에서 R(Roation)성분과 t(Translation)성분을 획득하는 방법일 수 있다. 전자 장치(100)는 상기 계산과정에서Closed form solution을 가질수가 없는 경우, 반복적인 연산 방법을 사용할 수 있다. 또한, 전자 장치(100)는 Reprojection Error를 줄이는 방향으로 PnP를 계산할 수 있다. 전자 장치(100)는 계산된 PnP의 R성분을 이용하여 사용자의 머리 자세를 추정할 수 있다. R성분은 (Roll, Pitch, Yaw)로 구성될 수 있으며 정면을 보고 있는 경우 (0,0,0)의 값을 가질 수 있다.The Perspective n Point (PnP) method may be a method of acquiring an R (Roation) component and a t (Translation) component under a condition in which two-dimensional location information and three-dimensional location information are mapped to each other 1: 1. When the electronic device 100 cannot have a closed form solution in the calculation process, the electronic device 100 may use an iterative calculation method. In addition, the electronic device 100 may calculate PnP in a direction of reducing the reprojection error. The electronic device 100 may estimate the head posture of the user using the calculated R component of PnP. The R component may be composed of (Roll, Pitch, Yaw) and may have a value of (0,0,0) when looking at the front.

도 8은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.8 is a diagram illustrating a control method of an electronic device according to an embodiment of the present disclosure.

도 8을 참고하면, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치(100)의 제어 방법은 촬영된 영상에서 사용자의 얼굴을 식별하는 단계(801), 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계(802) 및 식별된 랜드마크에 대응되는 가중치를 획득하고, 획득된 가중치를 랜드마크에 적용(803)하여 사용자의 머리 자세를 식별하는 단계(804)를 포함하며, 가중치는 움직임이 상대적으로 적은 랜드마크에 상대적으로 작은 가중치가 부여된다.Referring to FIG. 8, the control method of the electronic device 100 that stores a weight corresponding to a landmark representing a predefined feature point according to an embodiment of the present disclosure may include identifying a face of a user in a captured image ( 801, identifying a landmark among the identified facial feature points of the user (802), obtaining a weight corresponding to the identified landmark, and applying the obtained weight to the landmark (803) to identify the user's head posture. Step 804, where the weight is given a relatively small weight to a landmark with relatively little movement.

또한, 사용자의 머리 자세를 식별하는 804단계에서 전자 장치(100)는 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용할 수 있다.In operation 804 of identifying the posture of the user, the electronic device 100 may apply a weight that is relatively smaller than other landmarks to the landmarks that constitute the outline of the face among the identified landmarks of the user.

또한, 사용자의 머리 자세를 식별하는 804단계는 움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치보다 작은 제2 가중치를 부여할 수 있다.In operation 804, the head position of the user may be identified by assigning a first weight to a landmark corresponding to at least one of eyes, eyebrows, and nose having less movement, and applying a first weight to a landmark corresponding to at least one of a mouth and a chin. A second weight less than the weight may be given.

또한, 랜드마크는 3차원 위치 정보를 포함하고, 사용자의 머리 자세를 식별하는 804단계는 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 사용자의 얼굴 자세를 식별할 수 있다.In addition, the landmark includes three-dimensional location information, and in step 804 of identifying a head posture of the user, the facial posture of the user may be identified by applying a Perspective n Point (PnP) method to the three-dimensional location information.

또한, 사용자의 머리 자세를 식별하는 804단계는 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장할 수 있다.In operation 804, the head position of the user may be identified by acquiring a degree of movement of the landmark identified on the face of the user, and may be stored by mapping a relatively large weight to a landmark having a relatively high degree of movement.

한편, 전자 장치(100)는 차량에 구비된 장치이며, 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계를 더 포함할 수 있다.Meanwhile, the electronic device 100 is a device provided in the vehicle and may further include tracking at least one of the driver's state and the driver's gaze based on the identified head posture of the user.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 에 설치 가능한 어플리케이션 형태로 구현될 수 있다. Meanwhile, the above-described methods according to various embodiments of the present disclosure may be implemented in an application form that can be installed in an existing electronic device.

또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치 에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. In addition, the above-described methods according to various embodiments of the present disclosure may be implemented only by software upgrade or hardware upgrade of an existing electronic device.

또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치의 외부 서버를 통해 수행되는 것도 가능하다.In addition, the above-described various embodiments of the present disclosure may be performed through an embedded server provided in the electronic device or an external server of the electronic device.

한편, 상술한 실시 예에 따른 전자 장치 제어 방법은 프로그램으로 구현되어 전자 장치에 제공될 수 있다. 특히, 전자 장치 제어 방법을 포함하는 프로그램은 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.Meanwhile, the electronic device control method according to the above-described embodiment may be implemented as a program and provided to the electronic device. In particular, the program including the electronic device control method may be stored and provided in a non-transitory computer readable medium.

또한, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서(120) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.In addition, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. According to a hardware implementation, the embodiments described in the present disclosure may include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). ), Processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions. In some cases, the embodiments described herein may be implemented in the processor 120 itself. According to the software implementation, embodiments such as the procedures and functions described herein may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치 에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 에서의 처리 동작을 상기 특정 기기가 수행하도록 한다. Meanwhile, computer instructions for performing a processing operation in the electronic device according to various embodiments of the present disclosure may be stored in a non-transitory computer-readable medium. The computer instructions stored in the non-transitory computer readable medium allow the specific device to perform processing operations in the former according to the above-described various embodiments when executed by the processor of the specific device.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer readable medium refers to a medium that stores data semi-permanently and is readable by a device, not a medium storing data for a short time such as a register, a cache, a memory, and the like. Specific examples of non-transitory computer readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

구체적으로, 본 개시의 일 실시 예에 따른 기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치(100)의 프로세서(103)에 의해 실행되는 경우 전자 장치(100)가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체는 촬영된 영상에서 사용자의 얼굴을 식별하는 단계, 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계 및 식별된 랜드마크에 대응되는 가중치를 획득하고, 획득된 가중치를 랜드마크에 적용하여 사용자의 머리 자세를 식별하는 단계를 포함하며, 가중치는 움직임이 상대적으로 적은 랜드마크에 상대적으로 작은 가중치가 부여된다.Specifically, when executed by the processor 103 of the electronic device 100 that stores a weight corresponding to a landmark representing a predefined feature point, the electronic device 100 performs an operation. A non-transitory computer readable medium storing computer instructions for acquiring, may include identifying a face of a user in a captured image, identifying a landmark among identified facial feature points of the user, and obtaining a weight corresponding to the identified landmark. And identifying the head posture of the user by applying the obtained weight to the landmark, wherein the weight is given a relatively small weight to the landmark with relatively little movement.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the above has been illustrated and described with respect to preferred embodiments of the present disclosure, the present disclosure is not limited to the above-described specific embodiments, and is normally made in the art without departing from the gist of the present disclosure as claimed in the claims. Various modifications can be made by those skilled in the art, and these modifications should not be individually understood from the technical spirit or the prospect of the present disclosure.

100: 전자 장치 101: 촬상부
102: 메모리 103: 프로세서
100: electronic device 101: imaging unit
102: memory 103: processor

Claims (15)

전자 장치에 있어서,
촬상부;
기정의된 특징점을 나타내는 랜드마크에 대응되는 가중치가 저장된 메모리;
상기 촬상부에 의해 촬영된 영상에서 사용자의 얼굴을 식별하고,
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하고,
상기 식별된 랜드마크에 대응되는 가중치를 상기 메모리로부터 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 프로세서;를 포함하며,
상기 메모리에 저장된 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 전자 장치.
In an electronic device,
An imaging unit;
A memory in which weights corresponding to landmarks representing predefined feature points are stored;
Identify the face of the user in the image taken by the image pickup unit,
Identifying a landmark among facial feature points of the identified user;
And a processor configured to obtain a weight corresponding to the identified landmark from the memory, and apply the obtained weight to the landmark to identify a head posture of the user.
The weight stored in the memory is,
An electronic device, wherein a relatively small weight is given to a landmark having a lot of movement.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치.
The method of claim 1,
The processor,
And applying the weight to a difference value between a landmark of the user's face and a landmark of reference face data to identify the posture of the user's head.
제1항에 있어서,
상기 프로세서는,
상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용하는, 전자 장치.
The method of claim 1,
The processor,
The electronic device of claim 1, wherein a weight that is relatively smaller than other landmarks is applied to a landmark constituting the outer edge of the face.
제1항에 있어서,
상기 프로세서는,
움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여하는, 전자 장치.
The method of claim 1,
The processor,
The first weight is given to a landmark corresponding to at least one of the less-moving eyes, the eyebrows, and the nose, and the second weight is less than the first weight to the landmark corresponding to at least one of the mouth and the jaw. Device.
제1항에 있어서,
상기 랜드마크는 3차원 위치 정보를 포함하고,
상기 프로세서는,
상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치.
The method of claim 1,
The landmark includes three-dimensional location information,
The processor,
And applying a perspective n point (PnP) method to the 3D location information to identify the posture of the user's head.
제1항에 있어서,
상기 전자 장치는, 차량에 구비된 장치이며,
상기 프로세서는,
상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는, 전자 장치.
The method of claim 1,
The electronic device is a device provided in the vehicle,
The processor,
And track at least one of a driver's state and a driver's gaze based on the identified user's head posture.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장하는, 전자 장치.
The method of claim 1,
The processor,
And obtaining a movement degree of the landmark identified on the face of the user and mapping and storing a relatively large weight to a landmark having a relatively large movement degree.
기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 제어 방법에 있어서,
촬영된 영상에서 사용자의 얼굴을 식별하는 단계;
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계; 및
상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계;를 포함하며,
상기 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 전자 장치의 제어 방법.
A control method of an electronic device for storing a weight corresponding to a landmark representing a predefined feature point,
Identifying a face of the user in the captured image;
Identifying a landmark among the identified facial feature points of the user; And
Acquiring a weight corresponding to the identified landmark and applying the obtained weight to the landmark to identify a head posture of the user.
The weight is,
A relatively small weight is given to a landmark with a lot of movement.
제 8항에 있어서,
상기 사용자의 머리 자세를 식별하는 단계는,
상기 사용자의 얼굴의 랜드마크 및 기준 얼굴 데이터의 랜드마크 간 차이 값에 상기 가중치를 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And applying the weight to a difference value between a landmark of the user's face and a landmark of reference face data to identify the posture of the user's head.
제8항에 있어서,
상기 사용자의 머리 자세를 식별하는 단계는,
상기 식별된 사용자의 랜드마크 중 얼굴의 외곽을 구성하는 랜드마크에 다른 랜드마크보다 상대적으로 작은 가중치를 적용하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And applying a weight that is relatively smaller than other landmarks to the landmarks constituting the outside of the face among the identified landmarks of the user.
제8항에 있어서,
상기 사용자의 머리 자세를 식별하는 단계는,
움직임이 적은 눈, 눈썹 및 코 중 적어도 하나에 대응하는 랜드마크에는 제1 가중치를 부여하고, 입 및 턱 중 적어도 하나에 대응하는 랜드마크에는 상기 제1 가중치보다 작은 제2 가중치를 부여하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
A first weight is assigned to a landmark corresponding to at least one of the less-moving eye, an eyebrow, and a nose, and a second weight is less than the first weight to a landmark corresponding to at least one of the mouth and the chin. Control method of the device.
제8항에 있어서,
상기 랜드마크는 3차원 위치 정보를 포함하고,
상기 사용자의 머리 자세를 식별하는 단계는,
상기 3차원 위치 정보에 PnP(Perspective n Point) 방법을 적용하여 상기 사용자의 머리 자세를 식별하는, 전자 장치의 제어 방법.
The method of claim 8,
The landmark includes three-dimensional location information,
Identifying the head posture of the user,
And controlling the posture of the user's head by applying a Perspective n Point (PnP) method to the 3D location information.
제8항에 있어서,
상기 전자 장치는, 차량에 구비된 장치이며,
상기 식별된 사용자의 머리 자세에 기초하여 운전자의 상태 및 운전자 시선 중 적어도 하나를 추적하는 단계;를 더 포함하는, 전자 장치의 제어 방법.
The method of claim 8,
The electronic device is a device provided in the vehicle,
And tracking at least one of a driver's state and a driver's gaze based on the identified head posture of the user.
제8항에 있어서,
상기 사용자의 머리 자세를 식별하는 단계는,
상기 사용자의 얼굴에서 식별된 랜드마크의 움직임 정도를 획득하고, 움직임 정도가 상대적으로 큰 랜드마크에 상대적으로 큰 가중치를 매핑하여 저장하는, 전자 장치의 제어 방법.
The method of claim 8,
Identifying the head posture of the user,
And obtaining a degree of movement of the landmark identified on the face of the user and mapping and storing a relatively large weight to a landmark having a relatively high degree of movement.
기 정의된 특징점을 나타내는 랜드마크에 대응되는 가중치를 저장하는 전자 장치의 프로세서에 의해 실행되는 경우 상기 전자 장치가 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은,
촬영된 영상에서 사용자의 얼굴을 식별하는 단계;
상기 식별된 사용자의 얼굴 특징점 중 랜드마크를 식별하는 단계; 및
상기 식별된 랜드마크에 대응되는 가중치를 획득하고, 상기 획득된 가중치를 상기 랜드마크에 적용하여 상기 사용자의 머리 자세를 식별하는 단계;를 포함하며,
상기 가중치는,
움직임이 상대적으로 많은 랜드마크에 상대적으로 작은 가중치가 부여된 것인, 컴퓨터 판독가능 기록매체.
A non-transitory computer readable medium for storing computer instructions for causing an electronic device to perform an operation when executed by a processor of an electronic device that stores a weight corresponding to a landmark representing a predefined feature point. ,
Identifying a face of the user in the captured image;
Identifying a landmark among the identified facial feature points of the user; And
Acquiring a weight corresponding to the identified landmark, and applying the obtained weight to the landmark to identify a head posture of the user.
The weight is,
A computer readable recording medium in which relatively small weights are given to landmarks having a lot of movement.
KR1020180016984A 2018-02-12 2018-02-12 Electronic devices and methods thereof KR102074977B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180016984A KR102074977B1 (en) 2018-02-12 2018-02-12 Electronic devices and methods thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180016984A KR102074977B1 (en) 2018-02-12 2018-02-12 Electronic devices and methods thereof

Publications (2)

Publication Number Publication Date
KR20190097494A true KR20190097494A (en) 2019-08-21
KR102074977B1 KR102074977B1 (en) 2020-02-07

Family

ID=67808576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180016984A KR102074977B1 (en) 2018-02-12 2018-02-12 Electronic devices and methods thereof

Country Status (1)

Country Link
KR (1) KR102074977B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102375587B1 (en) * 2021-11-15 2022-03-18 주식회사 버츄어라이브 Method and apparauts for suggestion and composition of hair image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101515928B1 (en) * 2013-11-29 2015-05-06 재단법인대구경북과학기술원 Apparatus and method for face recognition using variable weight fusion
KR20160066380A (en) * 2014-12-02 2016-06-10 삼성전자주식회사 Method and apparatus for registering face, method and apparatus for recognizing face
KR20170000748A (en) * 2015-06-24 2017-01-03 삼성전자주식회사 Method and apparatus for face recognition
KR20170135758A (en) * 2016-05-30 2017-12-08 한국과학기술원 User -independent Face Landmark Detection and Tracking Apparatus for Spatial Augmented Reality Interaction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101515928B1 (en) * 2013-11-29 2015-05-06 재단법인대구경북과학기술원 Apparatus and method for face recognition using variable weight fusion
KR20160066380A (en) * 2014-12-02 2016-06-10 삼성전자주식회사 Method and apparatus for registering face, method and apparatus for recognizing face
KR20170000748A (en) * 2015-06-24 2017-01-03 삼성전자주식회사 Method and apparatus for face recognition
KR20170135758A (en) * 2016-05-30 2017-12-08 한국과학기술원 User -independent Face Landmark Detection and Tracking Apparatus for Spatial Augmented Reality Interaction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
임선규 외 3인. 대규모 얼굴 데이터베이스를 위한 빠르고 확장성 있는 얼굴 인식 시스템. 정보과학회논문지: 데이터베이스 제39권 제5호. 279-287 페이지. 2012.10.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102375587B1 (en) * 2021-11-15 2022-03-18 주식회사 버츄어라이브 Method and apparauts for suggestion and composition of hair image

Also Published As

Publication number Publication date
KR102074977B1 (en) 2020-02-07

Similar Documents

Publication Publication Date Title
US10684681B2 (en) Neural network image processing apparatus
US9733703B2 (en) System and method for on-axis eye gaze tracking
JP5024067B2 (en) Face authentication system, method and program
US11715231B2 (en) Head pose estimation from local eye region
KR20220150868A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP6651074B2 (en) Method for detecting eye movement, program thereof, storage medium for the program, and apparatus for detecting eye movement
JP2012037934A (en) Visual line detection device, visual line detection method and program
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
WO2011158463A1 (en) External light glare assessment device, line of sight detection device and external light glare assessment method
WO2016107638A1 (en) An image face processing method and apparatus
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
KR20170092533A (en) A face pose rectification method and apparatus
KR20120006819A (en) Gaze detection method and system adopting the same
CN110647782A (en) Three-dimensional face reconstruction and multi-pose face recognition method and device
JP6981277B2 (en) Detection device and detection program
JP2014186505A (en) Visual line detection device and imaging device
Santos et al. Eye gaze as a human-computer interface
JP2002366958A (en) Method and device for recognizing image
KR102074977B1 (en) Electronic devices and methods thereof
JP6785723B2 (en) Line-of-sight measuring device
JP7047848B2 (en) Face 3D shape estimation device, face 3D shape estimation method, and face 3D shape estimation program
KR20170088315A (en) Integrated Control method for Vehicle Drive using Depth Information based Face Recognition
JP7107380B2 (en) Estimation device, estimation method, and program
CN112800966B (en) Sight tracking method and electronic equipment
US20170109569A1 (en) Hybrid face recognition based on 3d data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant