KR20160057888A - Electronic device and method for determining a gaze of a user in electronic device - Google Patents

Electronic device and method for determining a gaze of a user in electronic device Download PDF

Info

Publication number
KR20160057888A
KR20160057888A KR1020140159084A KR20140159084A KR20160057888A KR 20160057888 A KR20160057888 A KR 20160057888A KR 1020140159084 A KR1020140159084 A KR 1020140159084A KR 20140159084 A KR20140159084 A KR 20140159084A KR 20160057888 A KR20160057888 A KR 20160057888A
Authority
KR
South Korea
Prior art keywords
mapping
detected
light source
plane
electronic device
Prior art date
Application number
KR1020140159084A
Other languages
Korean (ko)
Inventor
최인호
고성제
최강아
홍태화
손병준
김성태
김창한
Original Assignee
삼성전자주식회사
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 고려대학교 산학협력단 filed Critical 삼성전자주식회사
Priority to KR1020140159084A priority Critical patent/KR20160057888A/en
Publication of KR20160057888A publication Critical patent/KR20160057888A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

Embodiments of the present invention may include: a camera unit capturing an image; and a processor detecting one or more reflections on a cornea generated by a plurality of light sources from the image, and determining a gaze by a mapping function corresponding to the number of the detected reflections from a plurality of mapping functions for mapping from an image plane to a screen plane. Also, a variety of other embodiments may be provided.

Description

전자 장치 및 전자 장치에서의 시선 판단 방법{ELECTRONIC DEVICE AND METHOD FOR DETERMINING A GAZE OF A USER IN ELECTRONIC DEVICE}TECHNICAL FIELD [0001] The present invention relates to an electronic device and a method for determining a line of sight in an electronic device,

본 발명의 다양한 실시 예들은 전자 장치 및 전자 장치에서의 시선 판단 방법에 관한 것이다.Various embodiments of the present invention are directed to electronic devices and methods of determining a line of sight in an electronic device.

전자 장치에서 사용자의 시선(gaze)을 판단 및/또는 추적(tracking)하는 방법들의 예로서 홍채(iris), 동공(pupil), 또는 각막의 반짝임(glint) 등의 정보를 이용하여 시선을 판단 및/추적하는 방법들이 연구되고 있다.Examples of methods for judging and / or tracking a gaze of a user in an electronic device include a method of determining and determining a gaze using information such as an iris, a pupil, or a glint of the cornea, / Tracking methods are being studied.

사용자의 시선이 디스플레이 화면상의 어떤 부분을 바라보고 있는지를 확인하기 위하여, 사용자에게 정해진 위치를 바라보게 하고, 예컨대, 홍채, 동공, 각막의 반짝임 등을 분석함으로써 사용자의 시선이 바라보는 방향을 모델링할 수 있다.In order to check what portion of the user's gaze is looking at on the display screen, the user is asked to look at a predetermined position and the direction of the user's gaze is modeled by analyzing, for example, iris, pupil, .

화면상에서 사용자의 시선이 머무는 지점(point of gaze, 이하 'POG'라 한다)을 예측하고 추적하는 기술은 그 직관적이고 편리한 사용방식 때문에 최근 다양한 사람-장치 간 인터페이스(human-device interface) 기술의 발전과 더불어 많은 연구가 진행되고 있다.The technique of predicting and tracking the point of gaze (POG) of the user's viewpoint on the screen has been recently developed due to its intuitive and convenient usage method, the development of various human-device interface technologies And so on.

최근의 시선 추적 기술들은 정확한 성능을 위해 가시광 카메라(visible camera)뿐만 아니라 적외선 카메라(IR(infrared) camera) 및 IR LED(light emitting diode) 조명 장치를 이용한다. 이들 기술들은 동공의 중심(pupil center, 이하 'PC'라 한다) 좌표와 함께 광원(예컨대, IR 조명)이 안구에서 반사되는 각막 반사점(corneal reflection, 이하 'CR'이라 한다)의 좌표를 사용한다. 이를 동공 중심 각막 반사점(pupil center corneal reflection(PCCR)) 기법이라고 부르며, 사용되는 CR의 개수에 따라 다양한 시선 추적 방법들이 존재할 수 있다.Recent line-of-sight technologies use IR cameras (IR cameras) and IR LED (light emitting diode) lighting devices for accurate performance as well as visible cameras. These techniques use the coordinates of a corneal reflection (hereinafter referred to as 'CR') in which a light source (for example, IR illumination) is reflected from the eye, together with the pupil center . This is called the pupil center corneal reflex (PCCR) technique, and there may be various eye tracking methods depending on the number of CRs used.

현존하는 시선 판단 또는 추적 방법에 따르면, 미리 정해진 개수의 CR을 기반으로 하는 시선 예측 방법에 의해 시선 판단을 수행하므로, 예컨대 사용자가 화면의 모서리 부분을 응시할 경우에는 검출되는 CR의 개수가 충분히 확보되지 않아 캘리브레이션이 정상적으로 완료되더라도 시선 예측이 불가능한 단점이 있다.According to the present eye gaze determination or tracking method, eye gaze determination is performed by a gaze prediction method based on a predetermined number of CRs. For example, when a user gazes at a corner of a screen, the number of detected CRs is not sufficiently secured There is a disadvantage in that it is impossible to predict the gaze even if the calibration is normally completed.

본 발명의 다양한 실시 예들은, 예를 들면, CR을 기반으로 하는 시선 예측 방법에서 CR이 검출되는 개수에 관계없이 시선 판단 및 추적이 가능한 전자 장치 및 전자 장치에서의 시선 판단 방법을 제공할 수 있다.The various embodiments of the present invention can provide an electronic device capable of eye gazing and tracking and a gaze determination method in an electronic device regardless of the number of CRs detected in a CR-based gaze prediction method, for example .

전술한 과제 또는 다른 과제를 해결하기 위한, 한 실시 예에 따른 전자 장치는, 이미지를 촬영하는 카메라부; 및 상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함할 수 있다.According to an embodiment of the present invention, there is provided an electronic device comprising: a camera unit for capturing an image; And a mapping corresponding to the number of detected detected points from a plurality of mapping functions for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and mapping from an image plane to a screen plane And a processor for determining a line of sight by a function.

또한, 다양한 실시 예 중 어느 하나에 따른 전자 장치의 동작 방법은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.Also, an operating method of an electronic device according to any one of the various embodiments is characterized by the steps of: detecting at least one reflex point on the cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.

다양한 실시 예에 따른 전자 장치 및 전자 장치에서의 시선 판단 방법은 CR을 기반으로 하는 시선 예측 방법에서 CR이 검출되는 개수에 관계없이 시선 판단 및 추적을 할 수 있다.The method of determining a line of sight in an electronic device and an electronic device according to various embodiments can determine and track a line of sight regardless of the number of CRs detected in a CR-based line of sight prediction method.

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성 예를 나타내는 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른 시선 추적의 모델링을 나타내는 도면이다.
도 3은 본 발명의 다양한 실시 예에 따른 시선 예측 방법의 매핑 함수를 나타내는 도면이다.
도 4는 본 발명의 다양한 실시 예에 따른 시선 추적을 위한 캘리브레이션 방법을 나타내는 도면이다.
도 5는 본 발명의 다양한 실시 예에 따른 호모그래피 정규화 방법을 나타내는 도면이다.
도 6은 본 발명의 다양한 실시 예에 따른 시선 측정 방법을 나타내는 도면이다.
도 7은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점들의 예를 나타내는 도면이다.
도 8은 본 발명의 다양한 실시 예에 따른 시선 측정 결과를 나타내는 도면이다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 캘리브레이션 절차를 나타내는 흐름도이다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치의 시선 추적 절차를 나타내는 흐름도이다.
도 11은 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다.
도 12는 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점을 모델링하는 방법을 나타내는 도면이다.
도 13은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점의 패턴을 부호화하는 방법을 나타내는 도면이다.
도 14는 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다.
도 15는 본 발명의 다양한 실시 예에 따른 시선 추적 실험 결과를 나타내는 도면이다.
도 16은 본 발명의 다양한 실시 예에 따른 광원이 배치된 전자 장치를 나타내는 도면이다.
도 17은 본 발명의 다양한 실시 예에 따른 사용자의 시선을 나타내는 도면이다.
도 18은 본 발명의 다양한 실시 예에 따른 전자 장치의 화면상에서 캘리브레이션 및 테스트를 위해 사용된 타겟 포인트들을 나타내는 도면이다.
도 19는 본 발명의 실시 예에 따른 전자 장치의 세부 구조를 나타내는 블록도이다.
도 20은 본 발명의 다양한 실시 예에 따른 프로그램 모듈의 블록도이다.
1 is a diagram showing an example of the configuration of an electronic device according to an embodiment of the present invention.
2 is a diagram illustrating modeling of eye tracking in accordance with various embodiments of the present invention.
3 is a diagram illustrating a mapping function of the gaze prediction method according to various embodiments of the present invention.
4 is a diagram illustrating a calibration method for eye tracking according to various embodiments of the present invention.
5 is a diagram illustrating a homography normalization method in accordance with various embodiments of the present invention.
6 is a diagram illustrating a method of measuring a line of sight according to various embodiments of the present invention.
Figure 7 is an illustration of examples of detectable reflections according to various embodiments of the present invention.
8 is a diagram showing a result of eye gaze measurement according to various embodiments of the present invention.
9 is a flow chart illustrating a calibration procedure of an electronic device according to various embodiments of the present invention.
10 is a flow chart illustrating a line-of-sight tracing procedure of an electronic device according to various embodiments of the present invention.
11 is a view showing a concept of a gaze measurement method according to various embodiments of the present invention.
12 is a diagram illustrating a method for modeling a detectable reflection point in accordance with various embodiments of the present invention.
13 is a diagram illustrating a method of encoding a pattern of detectable points of refraction in accordance with various embodiments of the present invention.
14 is a diagram showing a concept of a gaze measurement method according to various embodiments of the present invention.
FIG. 15 is a diagram illustrating a result of eye-tracking experiments according to various embodiments of the present invention.
16 is a diagram illustrating an electronic device in which a light source is disposed according to various embodiments of the present invention.
17 is a view showing a user's eyes according to various embodiments of the present invention.
18 is a diagram showing target points used for calibration and testing on the screen of an electronic device according to various embodiments of the present invention.
19 is a block diagram showing a detailed structure of an electronic device according to an embodiment of the present invention.
20 is a block diagram of a program module in accordance with various embodiments of the present invention.

이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. It should be understood, however, that this disclosure is not intended to limit the present disclosure to the particular embodiments, but includes various modifications, equivalents, and / or alternatives of the embodiments of the present disclosure. In connection with the description of the drawings, like reference numerals may be used for similar components.

본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, the expressions "have," "may," "include," or "include" may be used to denote the presence of a feature (eg, a numerical value, a function, Quot ;, and does not exclude the presence of additional features.

본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", " A 및 B 중 적어도 하나", 또는 " A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A and / or B," or "one or more of A and / or B," etc. may include all possible combinations of the listed items . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) Or (3) at least one A and at least one B all together.

다양한 실시 예에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 개시의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.Expressions such as " first, "second," first, "or" second, " as used in various embodiments, Not limited. The representations may be used to distinguish one component from another. For example, the first user equipment and the second user equipment may represent different user equipment, regardless of order or importance. For example, without departing from the scope of the present disclosure, the first component may be referred to as a second component, and similarly, the second component may be named as the first component.

어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. (Or functionally or communicatively) coupled with / to "another component (eg, a second component), or a component (eg, a second component) Quot; connected to ", it is to be understood that any such element may be directly connected to the other element or may be connected through another element (e.g., a third element). On the other hand, when it is mentioned that a component (e.g., a first component) is "directly connected" or "directly connected" to another component (e.g., a second component) It can be understood that there is no other component (e.g., a third component) between other components.

본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. As used herein, the phrase " configured to " (or set) to be "adapted to, " To be designed to, "" adapted to, "" made to, "or" capable of ". The term " configured (or set) to "may not necessarily mean " specifically designed to" Instead, in some situations, the expression "configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be a processor dedicated to performing the operation (e.g., an embedded processor), or one or more software programs To a generic-purpose processor (e.g., a CPU or an application processor) that can perform the corresponding operations.

본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the other embodiments. The singular expressions may include plural expressions unless the context clearly dictates otherwise. All terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art of the present disclosure. Commonly used predefined terms may be interpreted to have the same or similar meaning as the contextual meanings of the related art and are not to be construed as ideal or overly formal in meaning unless expressly defined in this document . In some cases, the terms defined herein may not be construed to exclude embodiments of the present disclosure.

본 개시의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 전자 장치는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.An electronic device in accordance with various embodiments of the present disclosure may be, for example, a smartphone, a tablet personal computer, a mobile phone, a videophone, an e-book reader reader, a desktop personal computer, a laptop personal computer, a netbook computer, a workstation, a server, a personal digital assistant (PDA), a portable multimedia player (PMP) , Mobile medical devices, cameras, or wearable devices such as smart glasses, head-mounted-devices (HMD), electronic apparel, electronic bracelets, electronic necklaces, (e. g., apps, e-tat, smart mirror, or smart watch).

어떤 실시 예들에서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device may be a smart home appliance. Smart home appliances include, for example, televisions, digital video disk players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air cleaners, set- (Such as a home automation control panel, a security control panel, a TV box such as Samsung HomeSync ™, Apple TV ™ or Google TV ™), a game console (eg Xbox ™, PlayStation ™) A dictionary, an electronic key, a camcorder, or an electronic frame.

다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) A global positioning system receiver, an event data recorder (EDR), a flight data recorder (FDR), an automotive infotainment device, a navigation system, a navigation system, Electronic devices (eg marine navigation devices, gyro compass, etc.), avionics, security devices, head units for vehicles, industrial or home robots, ATMs (automatic teller's machines) point of sale, or internet of things such as light bulbs, various sensors, electricity or gas meters, sprinkler devices, fire alarms, thermostats, street lights, toasters ), A fitness equipment, a hot water tank, a heater, a boiler, etc.).

어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 개시의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.According to some embodiments, the electronic device is a piece of furniture or a part of a building / structure, an electronic board, an electronic signature receiving device, a projector, Water, electricity, gas, or radio wave measuring instruments, etc.). In various embodiments, the electronic device may be a combination of one or more of the various devices described above. An electronic device according to some embodiments may be a flexible electronic device. Further, the electronic device according to the embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technological advancement.

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성 예를 나타내는 도면이다. 도 1을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치는 제어부(110), 광원부(120), 카메라부(130), 표시부(140), 입력부(150), 또는 저장부(160) 중 적어도 어느 하나를 포함하여 구성될 수 있다. 또한, 상기 제어부(110)는 캘리브레이션 처리부(111), 매핑 함수 결정부(112), 반사점 검출부(113), 또는 시선 판단부(114) 중 적어도 어느 하나를 포함하여 구성될 수 있다.1 is a diagram showing an example of the configuration of an electronic device according to an embodiment of the present invention. 1, an electronic device according to an exemplary embodiment of the present invention includes a controller 110, a light source 120, a camera 130, a display 140, an input unit 150, Or at least one of them. The control unit 110 may include at least one of a calibration processing unit 111, a mapping function determination unit 112, a reflection point detection unit 113, and a gaze determination unit 114.

캘리브레이션 처리부(111)는 사용자의 시선에 대한 캘리브레이션을 처리하는 기능을 수행할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션 처리부(111)는 별도의 캘리브레이션 설정 메뉴를 통해 캘리브레이션을 수행하도록 구현할 수도 있다. 예컨대, 입력부(150)를 통해 사용자가 캘리브레이션 기능을 실행하면, 표시부(140)를 통해 미리 설정된 적어도 하나의 위치에 마크(mark)를 표시하고, 사용자가 해당 마크를 응시하면, 마크가 표시된 위치에 대한 사용자의 시선 정보를 기반으로 캘리브레이션을 수행할 수 있다.The calibration processing unit 111 may perform a function of processing calibration of the user's gaze. According to various embodiments of the present invention, the calibration processing unit 111 may be implemented to perform calibration through a separate calibration setting menu. For example, when the user executes the calibration function through the input unit 150, a mark is displayed at at least one predetermined position through the display unit 140, and when the user looks at the mark, The calibration can be performed based on the user's gaze information.

시선 판단부(114)는 사용자의 시선을 판단하는 기능을 수행할 수 있다. 또한, 상기 시선 판단부(114)는 사용자의 시선을 판단하고, 사용자의 시선을 추적하는 기능을 더 수행할 수 있다.The visual line determining unit 114 may perform a function of determining the user's line of sight. In addition, the gaze determining unit 114 may further perform a function of determining the gaze of the user and tracking the gaze of the user.

상기 시선 판단부(114)의 시선 판단 방법은 다양한 시선 판단 알고리즘에 의해 구현될 수 있으며, 본 발명의 다양한 실시 예들이 특정 알고리즘으로 한정되는 것은 아니다. 예컨대, 본 발명의 다양한 실시 예에 따라 상기 시선 판단부(114)는 사용자의 홍채, 동공, 각막의 반짝임 등의 정보를 이용하여 안구의 모양을 모델링하고, 이를 통해 사용자의 시선을 판단 또는 추적할 수 있다.The gaze determination method of the gaze determination unit 114 may be implemented by various gaze determination algorithms, and various embodiments of the present invention are not limited to specific algorithms. For example, according to various embodiments of the present invention, the eye-gaze determining unit 114 models the shape of the eyeball using information such as iris, pupil, and corneal flicker of the user, and thereby determines or tracks the user's gaze .

또한, 본 발명의 다양한 실시 예에 따라, 상기 시선 판단부(114)는 카메라부(130) 또는 광원부(120)와 연동하여 사용자의 시선(또는 시선 방향)을 판단할 수도 있다. 예컨대, 카메라부(130)를 통해 사용자의 얼굴 또는 안구를 촬영하고, 촬영된 이미지를 분석하여 사용자의 시선을 판단할 수 있다.In addition, according to various embodiments of the present invention, the gaze determination unit 114 may determine the user's gaze (or the gaze direction) in conjunction with the camera unit 130 or the light source unit 120. [ For example, the user's face or eyeball can be photographed through the camera unit 130, and the user's eyes can be determined by analyzing the photographed image.

또한, 본 발명의 다양한 실시 예에 따라, 상기 제어부(110)의 제어에 의해 광원부(120)가 적어도 하나의 광원을 발광시키도록 할 수 있다. 상기 시선 판단부(114)에서는 상기 광원부(120)를 통해 광원이 발광할 때, 상기 카메라부(130)를 통해 사용자의 얼굴 또는 안구를 촬영하고, 촬영된 이미지에서 안구에 맺힌 광원(예컨대, 안구에서 반사되는 각막 반사점(CR))의 위치를 확인함으로써 사용자의 시선을 판단할 수 있다.In addition, according to various embodiments of the present invention, the light source unit 120 may emit light of at least one light source under the control of the controller 110. [ When the light source emits light through the light source unit 120, the gaze determining unit 114 photographs the user's face or eyeball through the camera unit 130, and obtains a light source (e.g., an eyeball The corneal reflex point (CR) reflected from the cornea) can be determined to determine the user's gaze.

상기 캘리브레이션 처리부(111)를 통해 처리된 캘리브레이션 정보(161) 및/또는 상기 시선 판단부(114)를 통해 판단된 시선 정보(163)는 저장부(160)에 저장될 수 있다. 또한, 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션 정보(161) 및/또는 상기 시선 정보(163)는 각 사용자 정보와 대응하여 저장될 수도 있다.The calibration information 161 processed through the calibration processing unit 111 and / or the line of sight information 163 determined through the line of sight determiner 114 may be stored in the storage unit 160. Also, according to various embodiments of the present invention, the calibration information 161 and / or the sight line information 163 may be stored corresponding to each user information.

본 발명의 다양한 실시 예에 따라, 상기 시선 판단부(114)는 각막 반사점을 기반으로 시선을 판단할 경우, 상기 각막 반사점이 검출되는 개수에 관계없이 시선 판단 및 추적을 할 수 있다.According to various embodiments of the present invention, when the gaze determining unit 114 determines the gaze based on the corneal reflex point, the gaze determining unit 114 can determine and track gaze regardless of the number of corneal reflex points detected.

예컨대, 본 발명의 다양한 실시 예에 따라, 시선 판단 또는 시선 추적 기능이 동작하면, 반사점 검출부(113)는 상기 카메라부(130)를 통해 촬영된 이미지로부터 각막 반사점을 검출할 수 있다.For example, according to various embodiments of the present invention, when the gaze determination or the gaze tracking function is operated, the reflection point detection unit 113 can detect the corneal reflection point from the image photographed through the camera unit 130. [

매핑 함수 결정부(112)에서는 상기 반사점 검출부(113)를 통해 검출된 반사점의 개수 및/또는 반사점의 패턴에 대응하는 매핑 함수를 결정할 수 있다. 예컨대, 상기 매핑 함수 결정부(112)는 저장부(160)에 저장된 매핑 함수 정보(162)를 참조하여, 상기 검출된 반사점의 개수 및/또는 반사점의 패턴에 대응하여 미리 설정된 매핑 함수를 시선 판단을 위한 매핑 함수로 결정할 수 있다. 상기 매핑 함수는 반사점의 개수 및/또는 패턴에 따라 적용 가능한 방식들에 관한 함수들로서, 예컨대 HTN(homography transform based normalization) 방식, ATN(affine transform based normalization) 방식, 또는 STN(similarity transform based normalization) 방식 중 적어도 하나의 방식을 포함할 수 있다. 상기 반사점의 개수 및/또는 반사점의 패턴에 대응하여 매핑 함수를 결정하는 방법에 대한 구체적인 실시 예는 후술하기로 한다.The mapping function determination unit 112 can determine a mapping function corresponding to the number of reflection points detected by the reflection point detection unit 113 and / or the pattern of reflection points. For example, the mapping function determining unit 112 refers to the mapping function information 162 stored in the storage unit 160 and determines a mapping function preset in correspondence with the number of the detected reflection points and / Can be determined as a mapping function. The mapping function is a function related to the number of reflection points and / or patterns applicable to the pattern, for example, a homography transform based normalization (HTN) scheme, an affine transform based normalization (ATN) And / or < / RTI > A specific example of a method for determining the mapping function corresponding to the number of reflection points and / or the pattern of reflection points will be described later.

상기 매핑 함수 결정부(112)에 의해 시선 판단에 적용할 매핑 함수가 결정되면, 상기 시선 판단부(114)에서는 상기 반사점 검출부(113)를 통해 검출된 반사점에 관한 정보(예컨대, 반사점의 위치 정보)를 상기 매핑 함수 결정부(112)를 통해 결정된 매핑 함수에 적용함으로써 검출된 반사점의 개수에 관계없이 사용자의 시선을 판단할 수 있다.When the mapping function to be applied to the gaze determination is determined by the mapping function determination unit 112, the gaze determination unit 114 determines information about the reflection point detected through the reflection point detection unit 113 (for example, ) To the mapping function determined through the mapping function determination unit 112, the user's gaze can be determined regardless of the number of reflection points detected.

한편, 본 발명의 다양한 실시 예에서 각 기능부 또는 모듈이라 함은, 본 발명의 다양한 실시 예의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부 또는 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 실시 예의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In the various embodiments of the present invention, each functional unit or module may mean a functional and structural combination of hardware for performing the technical idea of various embodiments of the present invention and software for driving the hardware. For example, each functional unit or module may refer to a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and may be a code that is physically connected, or a type of hardware Or may be easily deduced to the average expert in the field of the embodiments of the present invention.

본 발명의 다양한 실시 예 중 어느 하나에 따른 전자 장치는, 이미지를 촬영하는 카메라부; 및 상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함할 수 있다.An electronic device according to any one of the various embodiments of the present invention includes: a camera unit for photographing an image; And a mapping corresponding to the number of detected detected points from a plurality of mapping functions for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and mapping from an image plane to a screen plane And a processor for determining a line of sight by a function.

본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단할 수 있다.According to various embodiments of the present invention, the processor can determine a line of sight by a mapping function corresponding to the detected pattern of the reflection points.

본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하고, 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정할 수 있다.According to various embodiments of the present invention, the processor may be configured to determine a plurality of light source patterns by combining at least one selected light source of the plurality of light sources, and to determine, for each of the plurality of light source patterns, Function can be determined.

본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be mapped to coded data and stored.

본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 2진 코드로 부호화될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be encoded into a binary code.

본 발명의 다양한 실시 예에 따라, 상기 광원은 IR(infrared) LED(light emitting diode)를 포함할 수 있다.According to various embodiments of the invention, the light source may comprise an infrared (LED) light emitting diode.

본 발명의 다양한 실시 예에 따라, 상기 카메라부는, 적외선 카메라를 포함할 수 있다.According to various embodiments of the present invention, the camera unit may include an infrared camera.

본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하고, 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑할 수 있다.According to various embodiments of the present invention, the processor may convert from the image plane to a virtual normalized plane and map the virtual normalized plane to the screen plane.

본 발명의 다양한 실시 예에 따라, 상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현될 수 있다.According to various embodiments of the present invention, the mapping function for mapping from the hypothetical normalized plane to the screen plane may be represented by a polynomial function.

본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정할 수 있다.According to various embodiments of the present invention, the processor may determine a polynomial mapping function for each of the patterns for a plurality of detected reflections during a calibration operation for gaze determination.

도 2는 본 발명의 다양한 실시 예에 따른 시선 추적의 모델링을 나타내는 도면이다. 도 2를 참조하면, 다양한 방법에 의해 시선 추적을 모델링할 수 있다.2 is a diagram illustrating modeling of eye tracking in accordance with various embodiments of the present invention. Referring to FIG. 2, eye tracking can be modeled by various methods.

예컨대, 시선 추적 모델링의 일 예로서 HN(homography normalization) 기법을 이용하여 시선 추적 방법을 기하학적으로 모델링할 수 있다. 상기 HN 기법에 의한 모델은 3개의 평면으로 구성될 수 있다. 첫째, 화면의 네 모서리에 IR 광원(L1-L4)(211, 212, 213, 214)을 부착한 모니터 스크린 평면(ПS)(210), 네 개의 CR(G1-G4)(231, 232, 233, 234)로 구성된 각막 평면(corneal plane)(ПC)(230), 그리고 카메라 이미지 평면(ПI)(220)이다.For example, the gaze tracking method can be geometrically modeled using HN (homography normalization) as an example of gaze tracking modeling. The model based on the HN technique may be composed of three planes. First, a monitor screen plane (П S ) 210 with four IR light sources (L 1 -L 4 ) 211, 212, 213, and 214 attached to four corners of the screen, four CR (G 1 -G 4 ) 230, 231, 232, 233, and 234, and a camera image plane (П I ) 220. The corneal plane (П C )

입력된 안구 이미지가 얻어지는 과정을 보면, 우선 네 개의 IR 광원들(L1-L4)(211, 212, 213, 214)이 각막(corneal)에 맺히게 되고(G1-G4)(231, 232, 233, 234), 다음으로 G1-G4(231, 232, 233, 234)와 평면 ПC(230) 상의 점 PC(P)가 카메라를 통하여 이미지 평면(image plane)(ПI)(220)에 맺히게 된다. 이로써 최종적으로 안구 이미지의 PC(P)와 네 개의 CR(g1-g4)(221, 222, 223, 224)들을 생성하게 된다.In the process of obtaining the input eye image, four IR light sources (L1 to L4) 211, 212, 213 and 214 are first formed on the corneal (G 1 -G 4 ) 233, 234), followed by G 1 -G 4 (231, 232 , 233, 234) and a flat П C (230) point PC (P), the image plane (image plane) (П I) (220 through the camera on the ). Thus, finally, the PC (P) of the eye image and the four CRs (g 1 -g 4 ) 221, 222, 223, and 224 are generated.

도 3은 본 발명의 다양한 실시 예에 따른 시선 예측 방법의 매핑 함수를 나타내는 도면이다. 예컨대, 본 발명의 다양한 실시 예에 따라 PCCR 방식의 기하학적 모델이 적용될 수 있다. 도 3을 참조하면, HN 방식에서의 POG 예측은 도시된 바와 같이 두 개의 매핑 함수(mapping function; MF)로 구성될 수 있다. ПI(310)에서 ПN(320)으로의 매핑과 ПN(320)에서 ПS(330)로의 매핑이다. 여기서 ПN(320)은 단위 스퀘어(unit square)의 크기를 갖는 정규화된 평면(normalized plane)이다.3 is a diagram illustrating a mapping function of the gaze prediction method according to various embodiments of the present invention. For example, a geometric model of the PCCR scheme may be applied in accordance with various embodiments of the present invention. Referring to FIG. 3, the POG prediction in the HN scheme may be composed of two mapping functions (MF) as shown in FIG. The mapping from П I (310) to П N (320) and from П N (320) to П S (330). Where N (320) is a normalized plane with a unit square size.

안구 이미지에서 검출된 PC인 PI가 호모그래피(homography) 함수

Figure pat00001
을 통하여 ПN(320) 평면으로 매핑될 수 있다. 이는 ПI(310)상의 4개의 CR들(g1-g4)과 ПN(320)의 네 모서리 지점(G1-G4)을 이용하여 가능하다.The P I detected in the eye image was the homography function
Figure pat00001
Can be mapped to the П N (320) plane. This is achieved by using the four corner points (G 1 -G 4) of the I П four CR on the (310) (g 1 -g 4 ) and П N (320).

ПN(320)상의 PC인 PN을 함수

Figure pat00002
을 이용하여 ПS(330)상의 점으로 매핑하여 최종 POG를 얻을 수 있다.
Figure pat00003
은 캘리브레이션 과정을 통해 얻을 수 있다.P N , the PC on N (320)
Figure pat00002
To obtain a final POG by mapping to points on the П S (330).
Figure pat00003
Can be obtained through a calibration process.

따라서, 전체 매핑 함수는

Figure pat00004
로 나타낼 수 있으며, 상기 함수에 의해,ПI(310) 평면에서 ПS(330) 평면으로 매핑될 수 있다.Thus, the full mapping function
Figure pat00004
And can be mapped to the П S (330) plane in the П I (310) plane by the function.

캘리브레이션을 위해 사용자는 화면상의 4개 또는 9개(또는 그 이상) 지점을 순차적으로 바라보도록 하며, 각 시점에서의 ПN(1320) 상에서의 PC 좌표 PN들을 저장하여 각각 해당 화면상의 대응 좌표들과의 호모그래피(homography) 함수

Figure pat00005
을 계산할 수 있다. 상기 단계에서는 오류를 최소화하기 위한 방법으로 "ransac" 또는 최소 자승(least square) 알고리즘을 사용할 수 있다.For calibration, the user views four or nine (or more) points sequentially on the screen, stores the PC coordinates P N on the N N (1320) at each point in time and obtains corresponding coordinates Homography function with
Figure pat00005
Can be calculated. In this step, a "ransac" or a least square algorithm can be used as a method for minimizing the error.

상기 캘리브레이션 방법은 본 발명의 다양한 실시 예들 중 적어도 하나에 적용할 수 있는 실시 예로서, 본 발명의 다양한 실시 예들은 상기 캘리브레이션 방법 이외의 다양한 캘리브레이션 방법들이 적용될 수 있으며, 상기 개시된 방법으로 한정되는 것은 아니다.The calibration method may be applied to at least one of various embodiments of the present invention, and various embodiments of the present invention may be applied to various calibration methods other than the calibration method, and the present invention is not limited thereto .

도 4는 본 발명의 다양한 실시 예에 따른 시선 추적을 위한 캘리브레이션 방법을 나타내는 도면이다. 도 4를 참조하면, 캘리브레이션을 위해 사용자는 화면상에 표시된 9개의 기준점(401, 402, 403, 404, 405, 406, 407, 408, 409)을 순차적으로 바라보도록 하며, 모니터에 표시된 위치를 사용자가 주시할 때, 카메라 등을 통해 촬영된 사용자의 안구 이미지를 통해 시선 추적을 모델링할 수 있다.4 is a diagram illustrating a calibration method for eye tracking according to various embodiments of the present invention. 4, the user views the nine reference points 401, 402, 403, 404, 405, 406, 407, 408, 409 displayed on the screen in order, Eye tracking can be modeled through an eye image of a user photographed through a camera or the like.

도 5는 본 발명의 다양한 실시 예에 따른 호모그래피 정규화 방법을 나타내는 도면이다. 도 5를 참조하면, HN 기법을 이용한 캘리브레이션 방법으로서, 도 2 내지 도 4에서 상술한 바와 같이 촬영된 안구 이미지에서 적어도 하나의 반사점(CR)의 위치를 확인하고, 이를 기하학적인 모델에 의해 스크린 평면상의 위치로 매핑할 수 있다. 예컨대, 도시된 바와 같이 사용자가 설정된 복수의 기준점을 응시할 때, 각 기준점을 응시하는 복수의 촬영된 이미지 평면(image plane)(ПI)(510)으로부터 단위 스퀘어(unit square)의 크기를 갖는 가상의 정규화된 평면(virtual normalized plane)(ПN))(520)을 생성할 수 있다. 상기 가상의 정규화된 평면(ПN))(520)은 다시 스크린 평면(ПS)(530)에 매핑되며, 상기 가상의 정규화된 평면(ПN))(520)에서 스크린 평면(ПS)(530)으로 매핑하는 함수

Figure pat00006
가 결정될 수 있다. 상기
Figure pat00007
은 다항 함수(polynomial function)로 표현될 수 있다.5 is a diagram illustrating a homography normalization method in accordance with various embodiments of the present invention. Referring to FIG. 5, as a calibration method using the HN technique, a position of at least one reflection point CR in an eye image photographed as described above with reference to FIGS. 2 to 4 is confirmed, Can be mapped to positions on the image plane. For example, when a user gazes at a plurality of reference points set by the user, a virtual image having a size of a unit square from a plurality of photographed image planes (P I ) ( N N) ) 520 of the virtual normalized plane. The plane (П N)) (520) normalization of the virtual back screen plane (П S) is mapped to the 530, an of the virtual normalized plane (screen plane at П N)) (520) (П S) (530)
Figure pat00006
Can be determined. remind
Figure pat00007
Can be expressed as a polynomial function.

도 6은 본 발명의 다양한 실시 예에 따른 시선 측정 방법을 나타내는 도면이다. 도 6을 참조하면, 사용자가 화면의 특정 위치를 응시할 때, 전술한 도 5의 캘리브레이션 방법에 의해 모델링된 매핑 함수에 의해 사용자가 응시하는 화면상의 위치(사용자의 시선)를 추정할 수 있다.6 is a diagram illustrating a method of measuring a line of sight according to various embodiments of the present invention. Referring to FIG. 6, when the user gazes at a specific position on the screen, it is possible to estimate the position (the user's gaze) on the screen by the user by the mapping function modeled by the calibration method of FIG. 5 described above.

예컨대, 시선 추적을 위해 촬영된 이미지로부터 생성된 이미지 평면(ПI)(610)에서의 CR을 확인하고, 상기 이미지 평면을 가상의 정규화된 평면(ПN))(620)으로 변환시킬 수 있다. 상기 가상의 정규화된 평면(ПN)(620)은 상기 캘리브레이션시 결정된 다항 함수

Figure pat00008
에 의해 다시 스크린 평면(ПS)(630)에 매핑될 수 있다. 상기 가상의 정규화된 평면(ПN)(620)에서의 동공의 중심(P)을 상기 스크린 평면(ПS)(630)으로 변환시킴으로써 사용자가 응시하는 화면상의 위치(POG)를 결정할 수 있다.For example, the CR in the image plane (П I ) 610 generated from the photographed image may be checked for gaze tracking, and the image plane may be transformed into a virtual normalized plane (П N ) (620) . The virtual normalized plane ( P N ) (620) is determined by the polynomial function
Figure pat00008
To the screen plane ( P S ) 630 again. It is possible to determine the position POG on the screen to be looked at by the user by converting the center P of the pupil in the virtual normalized plane P N 6 into the screen plane P S 630.

도 7은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점들의 예를 나타내는 도면이다. 도 7을 참조하면, 사용자가 응시하는 시선의 방향에 따라 촬영된 이미지로부터 검출된 CR의 개수가 달라짐을 알 수 있다.Figure 7 is an illustration of examples of detectable reflections according to various embodiments of the present invention. Referring to FIG. 7, it can be seen that the number of CRs detected varies from the photographed image according to the direction of the line of sight of the user.

예컨대, 도 7의 (a)에서는 3개의 CR(701, 702, 703)이 검출됨을 알 수 있으며, 1개의 CR(704)은 검출되지 못함을 알 수 있다. 도 7의 (b)에서는 2개의 CR(711, 712)이 검출됨을 알 수 있으며, 나머지 2개의 CR(713)은 검출되지 못함을 알 수 있다. 도 7의 (c)에서는 2개의 CR(721, 722)이 검출됨을 알 수 있으며, 도 7의 (d)에서는 3개의 CR(731, 732, 733)이 검출됨을 알 수 있다.For example, in FIG. 7A, it can be seen that three CRs 701, 702 and 703 are detected, and one CR 704 is not detected. In FIG. 7 (b), it can be seen that two CRs 711 and 712 are detected and the remaining two CRs 713 are not detected. It can be seen that two CRs 721 and 722 are detected in FIG. 7 (c), and three CRs 731, 732 and 733 are detected in FIG. 7 (d).

또한, 상기 도 7의 (a) 및 (b)에서는 각각 검출되지 못한 CR(704, 713)이 발생할 수 있음을 알 수 있다. 상기와 같이 검출되지 못한 CR이 발생할 경우, 어느 한 가지 방식에 따른 매핑 함수를 적용하지 못할 수 있다. 예컨대, 4개의 CR이 검출되어야 적용할 수 있는 HTN 방식을 적용하고자 할 경우, 상기 도 7에서와 같이 검출되지 못한 CR이 발생하여 검출된 CR의 개수가 1개, 2개, 또는 3개일 경우 시선 추적을 하지 못하는 경우가 발생할 수 있다.7 (a) and 7 (b), CRs 704 and 713, which are not detected, can be generated. When a CR that is not detected as described above occurs, a mapping function according to one of the methods may not be applied. For example, when applying the HTN scheme that can be applied when four CRs are detected, if the number of detected CRs is 1, 2, or 3 as shown in FIG. 7, It may happen that you can not trace.

본 발명의 다양한 실시 예에 따르면, 상기 검출되지 못한 CR이 발생하거나, 검출된 CR의 개수가 미리 설정된 매핑 함수(예컨대, HTN 방식에 따른 매핑 함수)의 조건을 만족하지 않을 경우에도 미리 설정된 복수의 매핑 함수들 중에서 어느 하나의 매핑 함수를 선택하여 적용함으로써 시선의 추적을 할 수 있다.According to various embodiments of the present invention, even when the detected CRs occur or the number of detected CRs does not satisfy the condition of a predetermined mapping function (for example, a mapping function according to the HTN scheme) It is possible to track the gaze by selecting and applying any one of the mapping functions.

도 8은 본 발명의 다양한 실시 예에 따른 시선 측정 결과를 나타내는 도면이다. 도 8을 참조하면, 촬영된 이미지에서 반사된 CR의 검출 개수에 따라 설정된 매핑 함수를 적용할 수 없는 경우를 나타낸다. 예컨대, 촬영된 이미지로부터 검출된 CR의 개수가 4개일 경우에는 시선 예측이 가능하나, 검출된 CR의 개수가 2개일 경우에는 시선 예측이 가능하지 않을 수 있다. 또한, 촬영된 이미지로부터 검출된 CR의 개수가 3개일 경우에는 검출되지 않은 나머지 하나의 CR을 예측함으로써 4개의 CR로부터 시선 예측을 할 수도 있다.8 is a diagram showing a result of eye gaze measurement according to various embodiments of the present invention. Referring to FIG. 8, a mapping function set according to the number of CRs detected in the photographed image can not be applied. For example, if the number of CRs detected from the photographed image is four, eye gaze prediction is possible, but if the number of detected CRs is two, gaze prediction may not be possible. If the number of CRs detected from the photographed image is three, eye gaze prediction may be performed from four CRs by predicting the remaining CR that has not been detected.

도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 캘리브레이션 절차를 나타내는 흐름도이다. 도 9를 참조하면, 동작 902에서, 캘리브레이션 모드가 설정되면, 동작 904에서 복수의 광원이 점등될 수 있다. 캘리브레이션을 위해 화면상에 복수의 기준점을 표시하고, 사용자가 각 기준점을 응시하도록 한 후 카메라를 통해 사용자의 안구를 촬영할 수 있다. 동작 906에서, 각 표시된 기준점을 응시한 복수의 촬영 이미지들로부터 각막에 형성된 반사점을 검출할 수 있다.9 is a flow chart illustrating a calibration procedure of an electronic device according to various embodiments of the present invention. Referring to FIG. 9, in operation 902, when the calibration mode is set, a plurality of light sources may be turned on in operation 904. It is possible to display a plurality of reference points on the screen for calibration and allow the user to gaze at each reference point, and then photograph the user's eye through the camera. In operation 906, a reflection point formed in the cornea can be detected from a plurality of photographed images gazing at the respective reference points.

동작 908에서, 적어도 하나의 광원에 대응하는 상기 검출된 반사점들을 조합하여 복수의 광원 패턴(반사점의 패턴)을 결정할 수 있다. 동작 910에서, 각 광원에 따른 반사점의 패턴 또는 반사점의 개수별 매핑 함수를 결정할 수 있다.In operation 908, a plurality of light source patterns (patterns of reflection points) may be determined by combining the detected reflection points corresponding to at least one light source. At operation 910, a mapping function may be determined for each light source according to the number of reflection point patterns or the number of reflection points.

도 10은 본 발명의 다양한 실시 예에 따른 전자 장치의 시선 추적 절차를 나타내는 흐름도이다. 동작 1002에서, 시선 추적 모드가 실행되면, 동작 1004에서 복수의 광원이 점등될 수 있다. 시선 추적 모드 실행에 따라 카메라를 통해 사용자의 안구를 촬영할 수 있으며, 동작 1006에서, 촬영된 이미지로부터 각막상에 생성된 적어도 하나의 반사점을 검출할 수 있다.10 is a flow chart illustrating a line-of-sight tracing procedure of an electronic device according to various embodiments of the present invention. In operation 1002, when the gaze tracking mode is executed, a plurality of light sources may be turned on in operation 1004. [ The user's eyes can be photographed through the camera in accordance with the execution of the gaze tracking mode and at operation 1006 at least one reflection point generated on each film from the photographed image can be detected.

동작 1008에서, 상기 검출된 반사점의 패턴 또는 반사점의 개수를 확인하고, 동작 1010에서, 상기 검출된 반사점의 패턴 또는 반사점의 개수에 대응하여 미리 설정된 적어도 하나의 매핑 함수에 의해 사용자의 시선을 판단할 수 있다.At operation 1008, the pattern of the detected reflection points or the number of reflection points is checked, and at operation 1010, the user's gaze is determined by at least one mapping function preset in correspondence with the detected pattern of reflection points or the number of reflection points .

상기 도 9 또는 도 10에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 9 또는 도 10의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. 또한, 상기 도 9 또는 도 10에 도시된 동작들은 전자 장치 내에서 수행될 수도 있으며, 서버에서 수행될 수도 있다. 또한, 상기 도 9 또는 도 10에 도시된 동작들 중 적어도 하나의 동작들은 전자 장치 내에서 수행되고, 나머지 동작들은 서버에서 수행되도록 구현될 수도 있다.The operation of at least one of the operations shown in FIG. 9 or 10 may be omitted, and at least one other operation may be added between the operations. 9 or 10 may be processed in the order shown, and the order of execution of at least one operation may be modified and processed in accordance with the order of execution of other operations. In addition, the operations shown in FIG. 9 or 10 may be performed in the electronic device, or may be performed in the server. Further, at least one of the operations shown in FIG. 9 or 10 may be performed in the electronic device, and the remaining operations may be performed in the server.

본 발명의 다양한 실시 예 중 어느 하나에 따른 전자 장치의 동작 방법은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.The method of operating an electronic device according to any one of the various embodiments of the present invention is a method for determining a line of sight in an electronic device, the method comprising: detecting at least one reflection point on a cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.

본 발명의 다양한 실시 예에 따라, 상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 더 포함할 수 있다.According to various embodiments of the present invention, an operation of determining a line of sight by a mapping function corresponding to the pattern of the detected reflection points may be further included.

본 발명의 다양한 실시 예에 따라, 상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하는 동작; 및 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는 동작;을 더 포함할 수 있다.Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources, according to various embodiments of the present invention; And determining the mapping function for each light source pattern among the plurality of light source patterns.

본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be mapped to coded data and stored.

본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 2진 코드로 부호화될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be encoded into a binary code.

본 발명의 다양한 실시 예에 따라, 상기 광원은 IR(infrared) LED(light emitting diode)를 포함할 수 있다.According to various embodiments of the invention, the light source may comprise an infrared (LED) light emitting diode.

본 발명의 다양한 실시 예에 따라, 적외선 카메라에 의해 안구 이미지를 촬영하는 동작;을 더 포함할 수 있다.According to various embodiments of the present invention, an operation may be performed to photograph an eye image by an infrared camera.

본 발명의 다양한 실시 예에 따라, 상기 시선을 판단하는 동작은, 상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하는 동작; 및 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는 동작;을 포함할 수 있다.According to various embodiments of the present invention, the act of determining the line of sight further comprises: converting from the image plane to a virtual normalized plane; And mapping the virtual normalized plane to the screen plane.

본 발명의 다양한 실시 예에 따라, 상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현될 수 있다.According to various embodiments of the present invention, the mapping function for mapping from the hypothetical normalized plane to the screen plane may be represented by a polynomial function.

본 발명의 다양한 실시 예에 따라, 시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는 동작;을 더 포함할 수 있다.In accordance with various embodiments of the present invention, it may further comprise determining a polynomial mapping function for each of the patterns for a plurality of detected reflections during a calibration operation for gaze determination.

도 11은 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다. 도 11을 참조하면, 이미지 평면(1110)상에서 검출된 CR의 개수 또는 CR의 패턴에 따라 미리 설정된 시선 추적 방식에 따른 매핑 함수를 적용할 수 있다. 본 발명의 다양한 실시 예에 따라, 전술한 바와 같이 이미지 평면(1110)은 각 검출된 CR의 개수 또는 CR의 패턴에 따라 미리 설정된 매핑 함수를 적용함으로써 가상의 정규화된 평면(1120)으로 변환될 수 있으며, 각각의 가상의 정규화된 평면(1120)은 스크린 평면(1130)으로 변환될 수 있다.11 is a view showing a concept of a gaze measurement method according to various embodiments of the present invention. Referring to FIG. 11, a mapping function according to a predetermined line-of-sight tracking method can be applied according to the number of CRs detected on the image plane 1110 or the CR pattern. According to various embodiments of the present invention, the image plane 1110 may be transformed into a virtual normalized plane 1120 by applying a predetermined mapping function according to the number of each detected CR or the pattern of the CR, as described above. And each virtual normalized plane 1120 can be transformed into a screen plane 1130. [

예컨대, 이미지 평면(1110)상에서 검출된 CR의 개수가 4개일 경우 HTN 방식에 따른 매핑 함수

Figure pat00009
를 적용할 수 있으며, 이미지 평면(1110)상에서 검출된 CR의 개수가 3개일 경우 ATN 방식에 따른 매핑 함수
Figure pat00010
를 적용할 수 있으며, 이미지 평면(1110)상에서 검출된 CR의 개수가 2개일 경우 STN 방식에 따른 매핑 함수
Figure pat00011
를 적용할 수 있다.For example, when the number of CRs detected on the image plane 1110 is four, a mapping function according to the HTN scheme
Figure pat00009
If the number of CRs detected on the image plane 1110 is three, the mapping function according to the ATN scheme
Figure pat00010
If the number of CRs detected on the image plane 1110 is two, the mapping function according to the STN scheme
Figure pat00011
Can be applied.

본 발명의 다양한 실시 예에 따라, 도 11에서 4개의 CR이 검출되는 경우,

Figure pat00012
상의 PC
Figure pat00013
의 좌표는
Figure pat00014
를 이용하여
Figure pat00015
상으로 매핑되어
Figure pat00016
를 얻을 수 있다. 본 발명의 다양한 실시 예에 따라, 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들(polynomial coefficients)을 저장하는 다항 캘리브레이션(polynomial calibration) 방식을 사용할 수 있다.According to various embodiments of the present invention, when four CRs are detected in Figure 11,
Figure pat00012
Top PC
Figure pat00013
The coordinates of
Figure pat00014
Using
Figure pat00015
Gt;
Figure pat00016
Can be obtained. According to various embodiments of the present invention, a polynomial calibration scheme may be used to store polynomial coefficients between corresponding points on two planes looking at nine points.

또한, 본 발명의 다양한 실시 예에 따라, 도 11에서 3개의 CR이 검출되는 경우, AT(affine transform) 정규화(normalization)를 수행할 수 있다. 예컨대,

Figure pat00017
상의 PC
Figure pat00018
좌표는
Figure pat00019
를 이용하여
Figure pat00020
상으로 매핑되어
Figure pat00021
을 얻을 수 있다. 상기
Figure pat00022
는 3개의 CR(g1 내지 g3) 와 각각에 대응되는
Figure pat00023
상의 점 G1 내지 G3 간의 AT(affine transform)를 가능하게 하는 매핑 함수이다.
Figure pat00024
은 G1 내지 G3으로 이루어지는 직각 이등변 삼각형(두 변의 길이는 단위 길이(unit length))이다.Also, according to various embodiments of the present invention, when three CRs are detected in FIG. 11, an affine transform (AT) normalization may be performed. for example,
Figure pat00017
Top PC
Figure pat00018
The coordinates are
Figure pat00019
Using
Figure pat00020
Gt;
Figure pat00021
Can be obtained. remind
Figure pat00022
Three CR (g 1 to g 3) and corresponding to an individual
Figure pat00023
Is an mapping function that enables an affine transform (AT) between the points G 1 to G 3 on the image plane.
Figure pat00024
Is a right-angled isosceles triangle consisting of G 1 to G 3 (the length of the two sides is unit length).

4개의 CR이 검출되는 경우에서와 마찬가지로,

Figure pat00025
에서
Figure pat00026
로의 매핑을 위해 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들을 저장하는 다항 캘리브레이션 방식을 사용할 수 있다.As in the case where four CRs are detected,
Figure pat00025
in
Figure pat00026
A polynomial calibration scheme that stores the polynomial coefficients between the corresponding points on the two planes can be used while looking at nine points for mapping to the two points.

또한, 본 발명의 실시 예에 따라, 도 11에서 2개의 CR이 검출되는 경우, ST(similarity transform) 기반의 정규화를 수행할 수 있다. 예컨대,

Figure pat00027
상의 PC
Figure pat00028
좌표는
Figure pat00029
를 이용하여
Figure pat00030
상으로 매핑되어
Figure pat00031
을 얻을 수 있다. 상기
Figure pat00032
는 2개의 CR(g1-g2)과 각각에 대응되는
Figure pat00033
상의 점 G1-G2 간의 ST(similarity transform)를 가능하게 하는 매핑 함수이다.
Figure pat00034
은 G1 및 G2로 이루어지는 단위 길이를 갖는 직선일 수 있다. 마찬가지로,
Figure pat00035
에서
Figure pat00036
로의 매핑을 위해 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들을 저장하는 다항 캘리브레이션 방식을 사용할 수 있다.In addition, according to the embodiment of the present invention, when two CRs are detected in FIG. 11, a similarity transform (ST) -based normalization can be performed. for example,
Figure pat00027
Top PC
Figure pat00028
The coordinates are
Figure pat00029
Using
Figure pat00030
Gt;
Figure pat00031
Can be obtained. remind
Figure pat00032
(G 1 -g 2 ) and two CR
Figure pat00033
Is a mapping function that enables a similarity transform (ST) between the points G 1 and G 2 .
Figure pat00034
May be a straight line having a unit length consisting of G 1 and G 2 . Likewise,
Figure pat00035
in
Figure pat00036
A polynomial calibration scheme that stores the polynomial coefficients between the corresponding points on the two planes can be used while looking at nine points for mapping to the two points.

도 12는 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점을 모델링하는 방법을 나타내는 도면이다. 도 12를 참조하면, 사용자의 안구의 움직임에 따라 검출 가능한 CR에 대하여 개수(예컨대, 4개, 3개, 2개 등), 종류, 위치 및 패턴 등을 분석할 수 있다. 사용자가 극단적으로 화면의 밖을 보는 경우, 1개의 CR이 검출되는 경우도 발생할 수 있다.12 is a diagram illustrating a method for modeling a detectable reflection point in accordance with various embodiments of the present invention. Referring to FIG. 12, it is possible to analyze the number (for example, four, three, two, etc.), kind, position, and pattern of the CR that can be detected according to the movement of the user's eyeball. When a user looks extremely out of the screen, a single CR may be detected.

예컨대, 사용자가 응시하는 화면의 영역에 따라, 정면을 응시할 경우(1207)에는 4개의 CR이 검출될 수 있다. 또한, 예컨대, 좌측 상단을 응시할 경우(1204), 우측 상단을 응시할 경우(1205), 좌측 하단을 응시할 경우(1209), 우측 하단을 응시할 경우(1210) 등에서는 4개의 CR이 검출될 수 있으며, 도시된 바와 같이 각각의 응시하는 방향에 따라 검출되는 CR의 위치 및 패턴 등이 상이할 수 있다.For example, according to the area of the screen to be examined by the user, four CRs can be detected when the user gazes at the front (1207). For example, four CRs may be detected in the case of gazing at the upper left corner (1204), gazing at the upper right corner (1205), gazing at the lower left corner (1209), gazing at the lower right corner (1210) As shown, the position and pattern of the CR detected according to each direction of gazing may be different.

또한, 본 발명의 다양한 실시 예에 따라, 사용자가 화면 밖을 응시할 경우(1201, 1202, 1203, 1206, 1208, 1211, 1212, 1213)에는 1개 또는 2개의 CR이 검출될 수 있으며, 응시하는 방향에 따라 검출되는 CR의 개수, 위치 및 패턴 등이 상이할 수 있다.Also, according to various embodiments of the present invention, one or two CRs may be detected when a user strikes off-screen (1201, 1202, 1203, 1206, 1208, 1211, 1212, 1213) The number, position, pattern, etc. of CRs detected in accordance with the direction may be different.

도 13은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점의 패턴을 부호화하는 방법을 나타내는 도면이다. 도 13은 본 발명의 다양한 실시 예에 따라 4개의 광원(예컨대, IR 광원)들로부터 검출될 수 있는 CR의 패턴을 분석하고 부호화하는 개념을 나타내는 도면이다.13 is a diagram illustrating a method of encoding a pattern of detectable points of refraction in accordance with various embodiments of the present invention. Figure 13 is a diagram illustrating the concept of analyzing and encoding a pattern of CRs that can be detected from four light sources (e.g., IR light sources) in accordance with various embodiments of the present invention.

도 13을 참조하면, 검출되는 CR의 개수 및 패턴들은 사용자가 응시하는 방향에 따라 다양하게 나타날 수 있다. 예컨대, 검출되는 CR의 개수는 1, 2, 3 또는 4개로 검출될 수 있다. 또한, 검출되는 CR의 패턴은 검출되는 CR의 위치에 따라 15가지의 패턴이 검출될 수 있다.Referring to FIG. 13, the number and patterns of detected CRs may vary depending on the direction in which the user looks. For example, the number of detected CRs can be detected as 1, 2, 3 or 4. In addition, the pattern of the detected CR can be detected in 15 patterns according to the position of the detected CR.

상기 검출 가능한 CR의 패턴은 설정된 코드로 부호화할 수 있다. 예컨대, 상기 도 13에서는 4개의 광원을 사용하여 4개까지의 CR이 검출 가능하므로, 4 비트의 2진 코드로 부호화할 수 있다. 본 발명의 다양한 실시 예에 따라 부호화된 코드의 각 자리는 특정 위치의 광원과 매핑될 수 있다. 예컨대, 도시된 바와 같이 우측 상단의 광원에서부터 반시계 방향으로 2진 코드의 자리를 부여할 수 있다.The pattern of the detectable CR can be encoded with a set code. For example, in FIG. 13, up to four CRs can be detected using four light sources, so that it can be encoded into a 4-bit binary code. According to various embodiments of the present invention, each digit of the encoded code may be mapped to a light source at a specific location. For example, as shown in the figure, the position of the binary code can be given in the counterclockwise direction from the light source at the upper right corner.

본 발명의 다양한 실시 예에 따라, 도 13에서 예시된 바와 같이 4개의 광원이 모두 검출되면, 2진 코드 '1111'로 부호화할 수 있으며, 이를 10진수로 변환하면 '15'가 될 수 있다. 또한, 도 13에서 예시된 바와 같이 좌측 하단의 광원만 검출되지 않고 나머지 3개의 광원들이 검출되면, 2진 코드 '1011'로 부호화할 수 있으며, 이를 10진수로 변환하면 '11'이 될 수 있다.According to various embodiments of the present invention, when all four light sources are detected as illustrated in FIG. 13, they can be encoded into a binary code '1111', which can be '15' when converted to a decimal number. In addition, as illustrated in FIG. 13, if only the light source at the lower left is not detected and the remaining three light sources are detected, it can be encoded into a binary code '1011', and converted into a decimal number to be '11' .

도 14는 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다. 도 14를 참조하면, 촬영된 안구 이미지로부터 PC 및 CR이 검출될 수 있으며, 전술한 바와 같이 검출된 CR의 패턴을 부호화할 수 있다.14 is a diagram showing a concept of a gaze measurement method according to various embodiments of the present invention. Referring to FIG. 14, PC and CR can be detected from the captured eye image, and the detected CR pattern can be encoded as described above.

예컨대, 촬영된 안구 이미지로부터 4개의 CR 검출된 상태에서 9개의 지점을 바라보는 캘리브레이션이 완료되었다고 가정할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션의 수행 시 4개의 CR 중 3개 또는 2개가 검출되는 다양한 패턴들에 대해서도 각각 캘리브레이션을 수행할 수 있다. 예컨대, 3개 또는 2개의 CR을 이용한 정규화 방법으로는, 각 CR의 개수에 적용 가능한 정규화 방법(예컨대, ATM 기법 또는 STM 기법 등)을 사용할 수 있다.For example, it can be assumed that from the photographed eye image, the calibration of looking at nine points in the state of detecting four CRs is completed. According to various embodiments of the present invention, calibration may also be performed for various patterns in which three or two of the four CRs are detected in performing the calibration. For example, as a normalization method using three or two CRs, a normalization method (for example, an ATM technique or an STM technique) applicable to the number of CRs can be used.

상기 다양한 개수의 CR에 대한 캘리브레이션이 완료되면, 각 CR의 패턴에 대응하는 다항 계수로 구성되는 매핑 함수들(P15, P13, P14, P7, P11, P9, P6, P3, P12)이 결정될 수 있다. 예컨대, 검출된 CR이 4개인 경우에 대해서는 매핑 함수 P15가 결정될 수 있으며, 검출된 CR이 3개인 경우에 대해서는 매핑 함수 P13, P14, P7, P11이 결정될 수 있으며, 검출된 CR이 2개인 경우에 대해서는 매핑 함수 P9, P6, P3, P12 가 결정될 수 있다.When the calibration for the various numbers of CRs is completed, mapping functions P 15 , P 13 , P 14 , P 7 , P 11 , P 9 , P 6 , P 3 , P 12 ) can be determined. For example, the mapping function P 15 can be determined for four detected CRs, and the mapping functions P 13 , P 14 , P 7 , and P 11 can be determined for three detected CRs, The mapping functions P 9 , P 6 , P 3 , and P 12 can be determined.

상기와 같이 캘리브레이션 과정에서 각 검출된 CR의 개수 및 패턴에 대응하는 매핑 함수가 결정되면, 이후 시선 예측 또는 시선 추적이 실행될 경우, 검출되는 CR의 개수 및 패턴에 따라 상기 대응하는 매핑 함수를 이용하여 시선을 판단할 수 있다. 예컨대, 도 14에 도시된 바와 같이 시선 예측 실행 시, 촬영된 안구 이미지에서 검출된 CR의 개수가 3개이고, 그 패턴이 13이면, 상기 3개의 CR에 대해 적용 가능한 정규화 방법(예컨대, ATM 기법)을 통해 정규화 과정을 수행한 후, 상기 확인된 패턴인 13번 패턴에 해당하는 다항 매핑 함수 P13를 저장부로부터 독출하여 상기 검출된 CR에 적용함으로써 POG를 산출할 수 있다.If the mapping function corresponding to the number and pattern of the detected CRs is determined in the calibration process as described above, then when the gaze prediction or gaze tracking is performed, the corresponding mapping function is used according to the number and pattern of detected CRs The gaze can be judged. For example, as shown in FIG. 14, when the number of CRs detected in the captured eye image is 3 and the pattern is 13, normalization methods (for example, an ATM technique) applicable to the three CRs, The POG can be calculated by reading the polynomial mapping function P 13 corresponding to the pattern 13, which is the confirmed pattern, from the storage unit and applying the polynomial mapping function P 13 to the detected CR.

도 15 내지 도 18은 본 발명의 다양한 실시 예에 따른 실험 예를 나타내는 도면들이다.15 to 18 are diagrams showing experimental examples according to various embodiments of the present invention.

도 15는 본 발명의 다양한 실시 예에 따른 시선 추적 실험 결과를 나타내는 도면이다. 도 15를 참조하면, 모니터의 네 모서리에는 IR 광원을 설치하고, IR 카메라를 이용하여 640×480 해상도의 안구 이미지를 촬영하였으며, 세 명의 실험자들에 대하여 실험을 수행하였다.FIG. 15 is a diagram illustrating a result of eye-tracking experiments according to various embodiments of the present invention. Referring to FIG. 15, an IR light source was installed on the four corners of the monitor, and an eyeball image of 640x480 resolution was photographed using an IR camera. Experiments were performed on three subjects.

화면과 사용자 간의 거리 65cm 상에서 화면상의 9개 지점을 바라보며 캘리브레이션을 수행한 후, 테스트 과정에서는 65cm, 55cm, 75cm으로 화면과의 거리를 변동하면서 머리를 움직일 수 있게 하였다. 머리를 움직이는 것은 CR의 검출이 어려운 환경을 조성하기 위해서이다. 가로, 세로 회전각도 20°, 좌우상하 평행이동은 10cm를 머리의 움직임의 허용 범위로 정의하였다.The distance between the screen and the user was 65cm. After performing the calibration by looking at the nine points on the screen, the distance between the screen and the screen was changed to 65cm, 55cm, and 75cm. Moving the head is to create an environment where CR detection is difficult. Horizontal and vertical rotation angle of 20 °, and left and right up and down parallel movement of 10 cm was defined as the permissible range of movement of the head.

도 15는 종래 기술로 4개의 CR이 있어야 동작하는 HN 기법과 본 발명의 다양한 실시 예에 따른 기법과의 성능 비교 결과를 나타낸다. 실험 결과 값은 각 거리에서의 9개 테스트 지점 응시 실험 시 예측 오차 각도(degree) 및 표준 편차를 나타낸다.FIG. 15 shows the performance comparison result between the HN technique operating with four CRs according to the prior art and the technique according to various embodiments of the present invention. The experimental results show the prediction error angle (degree) and the standard deviation at the test of 9 test points at each distance.

도 15에 도시된 바와 같이, 4개의 CR이 검출된 경우, 종래의 HN 기법을 이용하여 약 1.19도 시선 예측 성능을 얻었고, 본 발명의 다양한 실시 예들이 적용된 기법을 이용하여 2, 3개의 CR에 대해서도 시선을 예측함으로써 약 1.35도의 시선 예측 성능을 얻었다. 실험 전체적으로 검출되는 CR의 개수를 보면 4개 모두 검출되는 비율은 80.6%, 2, 3개가 검출되는 비율은 19.4%임을 확인할 수 있는데, 이로써 본 발명의 다양한 실시 예에 따른 기법을 사용할 경우, 종래 기법으로는 결과를 얻을 수 없던 상황에 성공적으로 대처하여 시선 예측을 할 수 있음을 알 수 있다.As shown in FIG. 15, when four CRs are detected, a visual prediction performance of about 1.19 degrees is obtained using the conventional HN technique, and the predictive performance of two or three CRs The gaze prediction performance of about 1.35 degrees was obtained. If the number of CRs detected in the entire experiment is examined, it can be seen that the ratio of detection of all four is 80.6%, and the ratio of detecting two or three is 19.4%. Thus, when using the technique according to various embodiments of the present invention, It can be understood that the gaze prediction can be performed by successfully coping with the situation where the result can not be obtained.

이하에서는, 도 16 내지 도 18을 참조하여 24인치 화면(1920x1080)의 모니터를 사용하여 실시한 시선 예측 실험의 결과를 설명한다. 도 16을 참조하면, 화면(1600)의 네 모서리에는 IR 광원들(1611, 1612, 1613, 1614)이 구비될 수 있다. 모니터에 구비된 IR 카메라(1620)를 이용하여 640×480 해상도의 안구 이미지를 촬영하며, 하기 <표 1>과 같이 여섯 명의 실험 대상자들에 대하여 실험을 수행하였다.Hereinafter, the results of the eye gaze prediction experiment performed using the monitor of the 24-inch screen (1920x1080) will be described with reference to FIGS. 16 to 18. FIG. Referring to FIG. 16, IR light sources 1611, 1612, 1613, and 1614 may be provided at four corners of the screen 1600. Eye image of a resolution of 640 x 480 was shot using an IR camera 1620 provided on the monitor, and experiments were performed on six subjects as shown in Table 1 below.

도 17에 도시된 바와 같이, 모니터(1700)의 네 모서리에 IR 광원들(1711)이 구비되며, 화면과 사용자들 간의 거리는 70cm 를 유지하고, 머리를 고정한 채로 9개 점을 바라보며 캘리브레이션을 수행하였다. 실험을 위해 화면(1721)상의 9개의 지점을 응시하도록 하였다.17, the IR light sources 1711 are provided at four corners of the monitor 1700, and the distance between the screen and the user is maintained at 70 cm, and calibration is performed while looking at nine points while fixing the head . For the experiment, nine points on the screen 1721 were stared.

일반적인 HN 기법(Ori_HN)과 제안하는 HTN, ATN, STN 기법들과의 성능 비교 결과는 하기 <표 1>과 같다. 하기 <표 1>은 9개의 테스트 지점에 대한 응시 실험 시의 예측 오차 각도(degree)와 표준 편차를 보여준다.Table 1 shows the performance comparison results between the general HN technique (Ori_HN) and the proposed HTN, ATN, and STN techniques. Table 1 below shows the prediction error angles (degrees) and standard deviations during the test for the nine test points.

Ori_HNOri_HN HTNHTN ATNATN STNSTN 실험 대상자 1Subject 1 0.93±0.710.93 + 0.71 0.68±0.360.68 ± 0.36 0.64±0.400.64 ± 0.40 0.73±0.330.73 + - 0.33 실험 대상자 2Subject 2 0.81±0.500.81 ± 0.50 0.72±0.270.72 ± 0.27 0.74±0.240.74 + 0.24 0.77±0.260.77 ± 0.26 실험 대상자 3Subject 3 0.93±0.460.93 + - 0.46 0.73±0.440.73 + 0.44 0.63±0.350.63 + - 0.35 0.70±0.370.70 + - 0.37 실험 대상자 4Subject 4 0.71±0.370.71 + - 0.37 0.84±0.380.84 0.38 0.68±0.450.68 ± 0.45 0.97±0.520.97 + - 0.52 실험 대상자 5Subject 5 0.91±0.520.91 + - 0.52 0.75±0.390.75 + 0.39 0.88±0.440.88 0.44 0.89±0.450.89 ± 0.45 실험 대상자 6Subject 6 1.11±0.511.11 + - 0.51 0.70±0.250.70 + - 0.25 0.81±0.240.81 + 0.24 0.70±0.270.70 + - 0.27 평균값medium 0.90±0.510.90 + - 0.51 0.74±0.350.74 + - 0.35 0.73±0.350.73 ± 0.35 0.79±0.370.79 + 0.37

<표 1>을 통해 HTN의 결과가 종래의 HN 결과보다 개선된 것임을 확인할 수 있으며, 3개, 2개의 CR만을 사용할 때에도 제안하는 방법을 사용할 경우 그 성능이 HN 기법보다 우월한 것을 알 수 있다.<Table 1> shows that the result of HTN is improved than that of the conventional HN. Even when using only 3 or 2 CRs, the performance of the proposed method is superior to that of the HN method.

도 18은 본 발명의 다양한 실시 예에 따른 전자 장치의 화면상에서 캘리브레이션 및 테스트를 위해 사용된 타겟 포인트들을 나타내는 도면이다. 도 18을 참조하면, 화면상에서 사각형의 표시는 캘리브레이션을 위해 설정된 타켓 포인트들을 나타내며, 십자 표시는 시선 추적을 위한 테스트 포인트들을 나타낸다.18 is a diagram showing target points used for calibration and testing on the screen of an electronic device according to various embodiments of the present invention. Referring to FIG. 18, a square display on the screen indicates target points set for calibration, and a cross mark indicates test points for eye tracking.

도 19는 다양한 실시 예에 따른 전자 장치(1901)의 블록도(1900)이다. 상기 전자 장치(1901)는, 예를 들면, 도 1에 도시된 전자 장치의 전체 또는 일부를 포함할 수 있다. 상기 전자 장치(1901)는 하나 이상의 애플리케이션 프로세서(AP: application processor)(1910), 통신 모듈(1920), SIM(subscriber identification module) 카드(1924), 메모리(1930), 센서 모듈(1940), 입력 장치(1950), 디스플레이(1960), 인터페이스(1970), 오디오 모듈(1980), 카메라 모듈(1991), 전력 관리 모듈(1995), 배터리(1996), 인디케이터(1997), 및 모터(1998)를 포함할 수 있다. 19 is a block diagram 1900 of an electronic device 1901 according to various embodiments. The electronic device 1901 may include all or part of the electronic device shown in Fig. 1, for example. The electronic device 1901 includes one or more application processors (APs) 1910, a communication module 1920, a SIM (subscriber identification module) card 1924, a memory 1930, a sensor module 1940, The device 1950 includes a display 1960, an interface 1970, an audio module 1980, a camera module 1991, a power management module 1995, a battery 1996, an indicator 1997, .

상기 AP(1910)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 상기 AP(1910)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1910)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP(1910)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 상기 AP(1910)는 도 19에 도시된 구성요소들 중 적어도 일부를 포함할 수도 있다. 상기 AP(1910)는 다른 구성요소들 (예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.The AP 1910 may control a plurality of hardware or software components connected to the AP 1910 by, for example, operating an operating system or an application program, and may perform various data processing and operations. The AP 1910 may be implemented as a system on chip (SoC), for example. According to one embodiment, the AP 1910 may further include a graphics processing unit (GPU) and / or an image signal processor. The AP 1910 may include at least some of the components shown in FIG. The AP 1910 loads or processes commands or data received from at least one of the other components (e.g., non-volatile memory) into the volatile memory and stores the various data in the non-volatile memory .

상기 통신 모듈(1920)은, 예를 들면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927), NFC 모듈(1928) 및 RF(radio frequency) 모듈(1929)을 포함할 수 있다.The communication module 1920 includes a cellular module 1921, a WIFI module 1923, a BT module 1925, a GPS module 1927, an NFC module 1928 and a radio frequency (RF) module 1929 ).

상기 셀룰러 모듈(1921)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 가입자 식별 모듈(예: SIM 카드(1924))을 이용하여 통신 네트워크 내에서 전자 장치(1901)의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 상기 AP(1910)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.The cellular module 1921 can provide voice communication, video call, text service, or Internet service, for example, through a communication network. According to one embodiment, the cellular module 1921 may utilize a subscriber identity module (e.g., SIM card 1924) to perform the identification and authentication of the electronic device 1901 within the communication network. According to one embodiment, the cellular module 1921 may perform at least some of the functions that the AP 1910 can provide. According to one embodiment, the cellular module 1921 may include a communication processor (CP).

상기 WIFI 모듈(1923), 상기 BT 모듈(1925), 상기 GPS 모듈(1927) 또는 상기 NFC 모듈(1928) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927) 또는 NFC 모듈(1928) 중 적어도 일부(예: 두 개 이상)는 하나의 집적 칩(integrated chip)(IC) 또는 IC 패키지 내에 포함될 수 있다. Each of the WIFI module 1923, the BT module 1925, the GPS module 1927 or the NFC module 1928 includes a processor for processing data transmitted and received through a corresponding module . According to some embodiments, at least some (e.g., two or more) of the cellular module 1921, the WIFI module 1923, the BT module 1925, the GPS module 1927, or the NFC module 1928, (IC) or an IC package.

상기 RF 모듈(1929)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. 상기 RF 모듈(1929)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927) 또는 NFC 모듈(1928) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.The RF module 1929 can transmit and receive a communication signal (e.g., an RF signal). The RF module 1929 may include, for example, a transceiver, a power amplifier module (PAM), a frequency filter, a low noise amplifier (LNA), or an antenna. According to another embodiment, at least one of the cellular module 1921, the WIFI module 1923, the BT module 1925, the GPS module 1927 or the NFC module 1928 transmits and receives RF signals through separate RF modules .

상기 SIM 카드(1924)는, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID (integrated circuit card identifier)) 또는 가입자 정보(예: IMSI (international mobile subscriber identity))를 포함할 수 있다. The SIM card 1924 may include, for example, a card containing a subscriber identity module and / or an embedded SIM and may include unique identification information (e.g., ICCID (integrated circuit card identifier) Subscriber information (e.g., international mobile subscriber identity (IMSI)).

상기 메모리(1930)(예: 메모리(1930))는, 예를 들면, 내장 메모리(1932) 또는 외장 메모리(1934)를 포함할 수 있다. 상기 내장 메모리(1932)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive (SSD)) 중 적어도 하나를 포함할 수 있다.The memory 1930 (e.g., memory 1930) may include, for example, an internal memory 1932 or an external memory 1934. The built-in memory 1932 may be a memory such as a volatile memory (e.g., a dynamic RAM, an SRAM, or a synchronous dynamic RAM (SDRAM)), a non-volatile memory : Programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (e.g., NAND flash or NOR flash) , A hard drive, or a solid state drive (SSD).

상기 외장 메모리(1934)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 상기 외장 메모리(1934)는 다양한 인터페이스를 통하여 상기 전자 장치(1901)와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory 1934 may be a flash drive such as a compact flash (CF), a secure digital (SD), a micro secure digital (SD), a mini secure digital (SD) extreme digital), a memory stick, or the like. The external memory 1934 may be functionally and / or physically connected to the electronic device 1901 through various interfaces.

상기 센서 모듈(1940)은, 예를 들면, 물리량을 계측하거나 전자 장치(1901)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(1940)은, 예를 들면, 제스처 센서(1940A), 자이로 센서(1940B), 기압 센서(1940C), 마그네틱 센서(1940D), 가속도 센서(1940E), 그립 센서(1940F), 근접 센서(1940G), 컬러(color) 센서(예: RGB(red, green, blue) 센서(1940H)), 생체 센서(1940I), 온/습도 센서(1940J), 조도 센서(1940K), 또는 UV(ultra violet) 센서(1940M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대안적으로, 상기 센서 모듈(1940)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 상기 센서 모듈(1940)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1901)는 AP(1910)의 일부로서 또는 별도로, 센서 모듈(1940)을 제어하도록 구성된 프로세서를 더 포함하여, 상기 AP(1910)가 슬립 (sleep) 상태에 있는 동안, 센서 모듈(1940)을 제어할 수 있다.The sensor module 1940 may, for example, measure a physical quantity or sense an operating state of the electronic device 1901 to convert the measured or sensed information into an electrical signal. The sensor module 1940 includes a gesture sensor 1940A, a gyro sensor 1940B, an air pressure sensor 1940C, a magnetic sensor 1940D, an acceleration sensor 1940E, a grip sensor 1940F, (For example, RGB (red, green, blue) sensor 1940H), a biometric sensor 1940I, a temperature / humidity sensor 1940J, a light intensity sensor 1940K, violet sensor 1940M. Additionally or alternatively, the sensor module 1940 can be, for example, an E-nose sensor, an EMG sensor, an EEG sensor, an electrocardiogram sensor, an IR infrared sensor, an iris sensor, and / or a fingerprint sensor. The sensor module 1940 may further include a control circuit for controlling at least one sensor included in the sensor module 1940. In some embodiments, the electronic device 1901 further includes a processor configured to control the sensor module 1940, either as part of the AP 1910 or separately, so that the AP 1910 is in a sleep state , The sensor module 1940 can be controlled.

상기 입력 장치(1950)는, 예를 들면, 터치 패널 (touch panel)(1952), (디지털) 펜 센서(pen sensor)(1954), 키 (key)(1956), 또는 초음파(ultrasonic) 입력 장치(1958)를 포함할 수 있다. 상기 터치 패널(1952)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 상기 터치 패널(1952)은 제어 회로를 더 포함할 수도 있다. 상기 터치 패널(1952)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The input device 1950 may include, for example, a touch panel 1952, a (digital) pen sensor 1954, a key 1956, or an ultrasonic input device (1958). The touch panel 1952 may employ, for example, at least one of an electrostatic type, a pressure sensitive type, an infrared type, and an ultrasonic type. In addition, the touch panel 1952 may further include a control circuit. The touch panel 1952 may further include a tactile layer to provide a tactile response to a user.

상기 (디지털) 펜 센서(1954)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 상기 키(1956)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 상기 초음파 입력 장치(1958)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(1901)에서 마이크(예: 마이크(1988))로 음파를 감지하여 데이터를 확인할 수 있다.The (digital) pen sensor 1954 may be, for example, part of a touch panel or may include a separate recognition sheet. The key 1956 may include, for example, a physical button, an optical key, or a keypad. The ultrasonic input device 1958 can sense data by sensing a sound wave from the electronic device 1901 to a microphone (e.g., a microphone 1988) through an input tool for generating an ultrasonic signal.

상기 디스플레이(1960)는 패널(1962), 홀로그램 장치(1964), 또는 프로젝터(1966)를 포함할 수 있다. 상기 패널(1962)은, 도 1의 표시부(140)와 동일 또는 유사한 구성을 포함할 수 있다. 상기 패널(1962)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게 (wearable) 구현될 수 있다. 상기 패널(1962)은 상기 터치 패널(1952)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(1964)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(1966)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치(1901)의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이(1960)은 상기 패널(1962), 상기 홀로그램 장치(1964), 또는 프로젝터(1966)를 제어하기 위한 제어 회로를 더 포함할 수 있다.The display 1960 may include a panel 1962, a hologram device 1964, or a projector 1966. The panel 1962 may have the same or similar configuration as the display 140 of FIG. The panel 1962 can be embodied, for example, flexible, transparent, or wearable. The panel 1962 may be formed of one module with the touch panel 1952. The hologram device 1964 can display stereoscopic images in the air using interference of light. The projector 1966 can display an image by projecting light onto a screen. The screen may be located, for example, inside or outside the electronic device 1901. According to one embodiment, the display 1960 may further include control circuitry for controlling the panel 1962, the hologram device 1964, or the projector 1966.

상기 인터페이스(1970)는, 예를 들면, HDMI(high-definition multimedia interface)(1972), USB(universal serial bus)(1974), 광 인터페이스(optical interface)(1976), 또는 D-sub(D-subminiature)(1978)를 포함할 수 있다. 상기 인터페이스(1970)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.The interface 1970 may be implemented in a computer system such as a high-definition multimedia interface (HDMI) 1972, a universal serial bus (USB) 1974, an optical interface 1976, or a D- subminiature (1978). The interface 1970 may include, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an infrared data association have.

상기 오디오 모듈(1980)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(1980)은, 예를 들면, 스피커(1982), 리시버(1984), 이어폰(1986), 또는 마이크(1988) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. The audio module 1980 can convert, for example, a sound and an electrical signal in both directions. The audio module 1980 may process sound information input or output through, for example, a speaker 1982, a receiver 1984, an earphone 1986, a microphone 1988, or the like.

상기 카메라 모듈(1991)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래쉬(flash)(예: LED 또는 xenon lamp)를 포함할 수 있다. 상기 카메라 모듈(1991)은, 도 1의 카메라부(130)와 동일 또는 유사한 구성을 포함할 수 있다. According to one embodiment, the camera module 1991 may include at least one image sensor (e.g., a front sensor or a rear sensor), a lens, an image signal processor (ISP) ), Or a flash (e.g., LED or xenon lamp). The camera module 1991 may have the same or similar configuration as the camera unit 130 of FIG.

상기 전력 관리 모듈(1995)은, 예를 들면, 상기 전자 장치(1901)의 전력을 관리할 수 있다. 한 실시 예에 따르면, 상기 전력 관리 모듈(1995)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. 상기 PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 상기 배터리 게이지는, 예를 들면, 상기 배터리(1996)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 상기 배터리(1996)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.The power management module 1995 may manage the power of the electronic device 1901, for example. According to one embodiment, the power management module 1995 may include a power management integrated circuit (PMIC), a charger integrated circuit (PMIC), or a battery or fuel gauge. The PMIC may have a wired and / or wireless charging scheme. The wireless charging scheme may include, for example, a magnetic resonance scheme, a magnetic induction scheme, or an electromagnetic wave scheme, and may further include an additional circuit for wireless charging, for example, a coil loop, a resonant circuit, have. The battery gauge can measure, for example, the remaining amount of the battery 1996, the voltage during charging, the current, or the temperature. The battery 1996 may include, for example, a rechargeable battery and / or a solar battery.

상기 인디케이터(1997)는 상기 전자 장치(1901) 혹은 그 일부(예: AP(1910))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1998)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 상기 전자 장치(1901)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어 플로우 (media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.The indicator 1997 may indicate a specific state of the electronic device 1901 or a portion thereof (e.g., AP 1910), e.g., a boot state, a message state, or a charged state. The motor 1998 can convert an electrical signal into a mechanical vibration and generate vibration or a haptic effect. Although not shown, the electronic device 1901 may include a processing unit (e.g., a GPU) for mobile TV support. The processing device for supporting the mobile TV can process media data conforming to standards such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow.

상기 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품 (component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.Each of the above-described components of the electronic device may be composed of one or more components, and the name of the component may be changed according to the type of the electronic device. In various embodiments, the electronic device may be configured to include at least one of the components described above, with some components omitted or further comprising additional other components. In addition, some of the components of the electronic device according to various embodiments may be combined into one entity, so that the functions of the components before being combined can be performed in the same manner.

도 20은 다양한 실시 예에 따른 프로그램 모듈(2010)의 블록도(2000)이다. 한 실시 예에 따르면, 상기 프로그램 모듈(2010)은 전자 장치에 관련된 자원을 제어하는 운영 체제(operation system (OS)) 및/또는 운영 체제상에서 구동되는 다양한 애플리케이션을 포함할 수 있다. 상기 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.20 is a block diagram 2000 of a program module 2010 according to various embodiments. According to one embodiment, the program module 2010 may include an operating system (OS) for controlling resources associated with the electronic device and / or various applications running on the operating system. The operating system may be, for example, android, iOS, windows, symbian, tizen, or bada.

프로그램 모듈(2010)은 커널(2020), 미들웨어(2030), API(application programming interface)(2060), 및/또는 애플리케이션(2070)을 포함할 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는 전자 장치상에 프리로드(preload) 되거나, 서버로부터 다운로드(download) 가능하다.The program module 2010 may include a kernel 2020, a middleware 2030, an application programming interface (API) 2060, and / or an application 2070. At least a portion of the program module 2010 may be preloaded on an electronic device or downloaded from a server.

상기 커널(2020)은, 예를 들면, 시스템 리소스 매니저(2021) 또는 디바이스 드라이버(2023)를 포함할 수 있다. 상기 시스템 리소스 매니저(2021)는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 상기 시스템 리소스 매니저(2021)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 상기 디바이스 드라이버(2023)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WIFI 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. The kernel 2020 may include, for example, a system resource manager 2021 or a device driver 2023. [ The system resource manager 2021 can perform control, assignment, or recovery of system resources. According to one embodiment, the system resource manager 2021 may include a process management unit, a memory management unit, or a file system management unit. The device driver 2023 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WIFI driver, an audio driver, or an inter- have.

상기 미들웨어(2030)는, 예를 들면, 상기 애플리케이션(2070)이 공통적으로 필요로 하는 기능을 제공하거나, 상기 애플리케이션(2070)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 상기 API(2060)를 통해 다양한 기능들을 상기 애플리케이션(2070)으로 제공할 수 있다. 한 실시 예에 따르면, 상기 미들웨어(2030)는 런타임 라이브러리(2035), 애플리케이션 매니저(application manager)(2041), 윈도우 매니저(window manager)(2042), 멀티미디어 매니저(multimedia manager)(2043), 리소스 매니저(resource manager)(2044), 파워 매니저(power manager)(2045), 데이터베이스 매니저(database manager)(2046), 패키지 매니저(package manager)(2047), 연결 매니저(connectivity manager)(2048), 통지 매니저(notification manager)(2049), 위치 매니저 (location manager)(2050), 그래픽 매니저(graphic manager)(2051), 또는 보안 매니저(security manager)(2052) 중 적어도 하나를 포함할 수 있다.The middleware 2030 may provide the functions commonly required by the application 2070 or may be used by the API 2060 to allow the application 2070 to efficiently use limited system resources within the electronic device. To provide various functions to the application (2070). According to one embodiment, the middleware 2030 includes a runtime library 2035, an application manager 2041, a window manager 2042, a multimedia manager 2043, a resource manager 2044, a power manager 2045, a database manager 2046, a package manager 2047, a connectivity manager 2048, a notification manager 2049, a location manager 2050, a graphic manager 2051, or a security manager 2052.

상기 런타임 라이브러리(2035)는, 예를 들면, 상기 애플리케이션(2070)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 상기 런타임 라이브러리(2035)는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.The runtime library 2035 may include, for example, a library module used by the compiler to add new functionality via a programming language while the application 2070 is running. The runtime library 2035 may perform input / output management, memory management, or functions for an arithmetic function.

상기 애플리케이션 매니저(2041)는, 예를 들면, 상기 애플리케이션(2070) 중 적어도 하나의 애플리케이션의 라이프 사이클(life cycle)을 관리할 수 있다. 상기 윈도우 매니저(2042)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 상기 멀티미디어 매니저(2043)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 상기 리소스 매니저(2044)는 상기 애플리케이션(2070) 중 적어도 어느 하나의 애플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.The application manager 2041 can manage the life cycle of at least one of the applications 2070, for example. The window manager 2042 can manage GUI resources used in the screen. The multimedia manager 2043 can recognize a format required for reproducing various media files and can encode or decode a media file using a codec suitable for the format. The resource manager 2044 can manage resources such as a source code, a memory, or a storage space of at least one of the applications 2070.

상기 파워 매니저(2045)는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 상기 데이터베이스 매니저(2046)는 상기 애플리케이션(2070) 중 적어도 하나의 애플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 상기 패키지 매니저(2047)는 패키지 파일의 형태로 배포되는 애플리케이션의 설치 또는 업데이트를 관리할 수 있다. The power manager 2045 operates together with a basic input / output system (BIOS), for example, to manage a battery or a power source and provide power information and the like necessary for the operation of the electronic device . The database manager 2046 may create, search, or modify a database for use by at least one of the applications 2070. The package manager 2047 can manage installation or update of an application distributed in the form of a package file.

상기 연결 매니저(2048)는, 예를 들면, WIFI 또는 블루투스 등의 무선 연결을 관리할 수 있다. 상기 통지 매니저(2049)는 도착 메시지, 약속, 근접성 알림 등의 사건 (event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 상기 위치 매니저(2050)는 전자 장치의 위치 정보를 관리할 수 있다. 상기 그래픽 매니저(2051)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 상기 보안 매니저(2052)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치 가 전화 기능을 포함한 경우, 상기 미들웨어(2030)는 상기 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.The connection manager 2048 may manage a wireless connection, such as WIFI or Bluetooth, for example. The notification manager 2049 may display or notify events such as arrival messages, appointments, proximity notifications, etc. in a manner that does not disturb the user. The location manager 2050 can manage the location information of the electronic device. The graphic manager 2051 may manage a graphical effect to be provided to the user or a user interface related thereto. The security manager 2052 may provide security functions necessary for system security or user authentication. According to one embodiment, when the electronic device includes a telephone function, the middleware 2030 may further include a telephony manager for managing a voice or video call function of the electronic device.

상기 미들웨어(2030)는 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 상기 미들웨어(2030)는 차별화된 기능을 제공하기 위해 운영 체제의 종류별로 특화된 모듈을 제공할 수 있다. 또한, 상기 미들웨어(2030)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.The middleware 2030 may include a middleware module that forms a combination of various functions of the above-described components. The middleware 2030 may provide a module specialized for each type of operating system to provide a differentiated function. In addition, the middleware 2030 may dynamically delete some existing components or add new components.

상기 API(2060)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼별로 두 개 이상의 API 셋을 제공할 수 있다.The API 2060 may be provided in a different configuration depending on the operating system, for example, as a set of API programming functions. For example, for Android or iOS, you can provide one API set per platform, and for tizen, you can provide more than two API sets per platform.

상기 애플리케이션(2070)은, 예를 들면, 홈(2071), 다이얼러(2072), SMS/MMS(2073), IM(instant message)(2074), 브라우저(2075), 카메라(2076), 알람(2077), 컨택트(2078), 음성 다이얼(2079), 이메일(2080), 달력(2081), 미디어 플레이어(2082), 앨범(2083), 또는 시계(2084), 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 제공할 수 있는 하나 이상의 애플리케이션을 포함할 수 있다.The application 2070 may include a home 2071, a dialer 2072, an SMS / MMS 2073, an instant message 2074, a browser 2075, a camera 2076, an alarm 2077 ), Contact 2078, voice dial 2079, email 2080, calendar 2081, media player 2082, album 2083 or clock 2084, health care (e.g., Or providing information on the environment (e.g., providing atmospheric pressure, humidity, or temperature information, etc.), and the like.

한 실시 예에 따르면, 상기 애플리케이션(2070)은 상기 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원하는 애플리케이션(이하, 설명의 편의 상, "정보 교환 애플리케이션")을 포함할 수 있다. 상기 정보 교환 애플리케이션은, 예를 들면, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다.According to one embodiment, the application 2070 may include an application (hereinafter referred to as an "information exchange application") for supporting information exchange between the electronic device and an external electronic device. The information exchange application may include, for example, a notification relay application for communicating specific information to the external electronic device, or a device management application for managing the external electronic device .

예를 들면, 상기 알림 전달 애플리케이션은 상기 전자 장치의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션, 또는 환경 정보 애플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치로 전달하는 기능을 포함할 수 있다. 또한, 상기 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 애플리케이션은, 예를 들면, 상기 전자 장치와 통신하는 외부 전자 장치의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.For example, the notification delivery application may include a function of transmitting notification information generated by another application (e.g., SMS / MMS application, email application, healthcare application, or environment information application) of the electronic device to an external electronic device . In addition, the notification delivery application may receive notification information from, for example, an external electronic device and provide the notification information to the user. The device management application may, for example, control the operation of at least one function of the external electronic device communicating with the electronic device (e.g., turn-on / turn-off of the external electronic device itself (E.g., install, delete, or update) an application running on the external electronic device or a service (e.g., call service or message service) provided on the external electronic device.

한 실시 예에 따르면, 상기 애플리케이션(2070)은 상기 외부 전자 장치의 속성(예: 전자 장치의 속성으로서, 전자 장치의 종류가 모바일 의료 기기)에 따라 지정된 애플리케이션(예: 건강 관리 애플리케이션)을 포함할 수 있다. 한 실시 예에 따르면, 상기 애플리케이션(2070)은 외부 전자 장치로부터 수신된 애플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 애플리케이션(2070)은 프리로드 애플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 애플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈(2010)의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다. According to one embodiment, the application 2070 includes an application (e.g., a healthcare application) designated according to an attribute of the external electronic device (e.g., an attribute of the electronic device, the type of electronic device is a mobile medical device) . According to one embodiment, the application 2070 may include an application received from an external electronic device. According to one embodiment, the application 2070 may include a preloaded application or a third party application downloadable from a server. The names of the components of the program module 2010 according to the illustrated embodiment may vary depending on the type of the operating system.

다양한 실시 예에 따르면, 상기 프로그램 모듈(2010)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는, 예를 들면, 프로세서(예: AP(1910))에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.According to various embodiments, at least some of the program modules 2010 may be implemented in software, firmware, hardware, or a combination of at least two of them. At least some of the program modules 2010 may be implemented (e.g., executed) by, for example, a processor (e.g., AP 1910). At least some of the program modules 2010 may include, for example, modules, programs, routines, sets of instructions or processes, etc. to perform one or more functions.

본 문서에서 사용된 용어 "모듈" 또는 "기능부"는, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈" 또는 "기능부"는, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈" 또는 "기능부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈" 또는 "기능부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈" 또는 "기능부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.The term "module" or "function, " as used herein, may refer to a unit that includes one or a combination of two or more of, for example, hardware, software or firmware. The term "module" or "functional part" is used interchangeably with terms such as, for example, unit, logic, logical block, component, ). A "module" or "function" may be a minimum unit or a part of an integrally constructed component. A "module" may be a minimum unit or a portion thereof that performs one or more functions. "Modules" or "functional parts" may be implemented mechanically or electronically. For example, a "module" or "function" may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) or programmable logic arrays (FPGAs) -logic device).

다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 저장부(160)가 될 수 있다. At least a portion of a device (e.g., modules or functions thereof) or a method (e.g., operations) according to various embodiments may include, for example, computer-readable storage media in the form of program modules, As shown in FIG. The instructions, when executed by the processor, may cause the one or more processors to perform functions corresponding to the instructions. The computer-readable storage medium may be, for example, the storage unit 160. [

상기 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.The computer readable recording medium may be a hard disk, a floppy disk, a magnetic media (e.g., a magnetic tape), an optical media (e.g., a compact disc read only memory (CD-ROM) but are not limited to, digital versatile discs, magneto-optical media such as floptical discs, hardware devices such as read only memory (ROM), random access memory (RAM) Etc.), etc. The program instructions may also include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter, etc. The above- May be configured to operate as one or more software modules to perform the operations of the various embodiments, and vice versa.

다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱 (heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Modules or program modules according to various embodiments may include at least one or more of the elements described above, some of which may be omitted, or may further include additional other elements. Operations performed by modules, program modules, or other components in accordance with various embodiments may be performed in a sequential, parallel, iterative, or heuristic manner. Also, some operations may be performed in a different order, omitted, or other operations may be added.

다양한 실시 예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.According to various embodiments, there is provided a storage medium storing instructions which, when executed by at least one processor, cause the at least one processor to be configured to perform at least one operation, A method of determining a line of sight in an electronic device, the method comprising: detecting at least one reflection point on a cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.

그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. And the like. Accordingly, the scope of various embodiments of the present invention should be construed as being included in the scope of various embodiments of the present invention without departing from the scope of the present invention, all changes or modifications derived from the technical idea of various embodiments of the present invention .

110 : 제어부 111 : 캘리브레이션 처리부
112 : 매핑 함수 결정부 113 : 반사점 검출부
114 : 시선 판단부 120 : 광원부
130 : 카메라부 140 : 표시부
150 : 입력부 160 : 저장부
161 : 캘리브레이션 정보 162 : 매핑 함수 정보
163 : 시선 정보
110: control unit 111: calibration processing unit
112: mapping function determination unit 113: reflection point detection unit
114: eye gaze determination unit 120:
130: camera unit 140: display unit
150: input unit 160:
161: Calibration information 162: Mapping function information
163: sight line information

Claims (20)

이미지를 촬영하는 카메라부; 및
상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함하는, 전자 장치.
A camera unit for photographing an image; And
A mapping function for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and for mapping the detected number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane, And a processor for determining a line of sight by the electronic device.
제1항에 있어서, 상기 프로세서는,
상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는, 전자 장치.
2. The apparatus of claim 1,
And determines a line of sight by a mapping function corresponding to the detected pattern of reflection points.
제2항에 있어서, 상기 프로세서는,
상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하고, 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는, 전자 장치.
3. The apparatus of claim 2,
Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources and determining the mapping function for each light source pattern among the plurality of light source patterns.
제2항에 있어서,
상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장되는, 전자 장치.
3. The method of claim 2,
Wherein the plurality of light source patterns are mapped to encoded data and stored.
제4항에 있어서,
상기 복수의 광원 패턴들은 2진 코드로 부호화되는, 전자 장치.
5. The method of claim 4,
Wherein the plurality of light source patterns are encoded in a binary code.
제1항에 있어서,
상기 광원은 IR(infrared) LED(light emitting diode)를 포함하는, 전자 장치.
The method according to claim 1,
Wherein the light source comprises an infrared (LED) light emitting diode.
제1항에 있어서, 상기 카메라부는,
적외선 카메라를 포함하는, 전자 장치.
The camera system according to claim 1,
An electronic device, comprising an infrared camera.
제1항에 있어서, 상기 프로세서는,
상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하고, 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는, 전자 장치.
2. The apparatus of claim 1,
Transforming the imaginary normalized plane from the image plane, and mapping the virtual normalized plane to the screen plane.
제8항에 있어서,
상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현되는, 전자 장치.
9. The method of claim 8,
Wherein the mapping function for mapping from the virtual normalized plane to the screen plane is represented by a polynomial function.
제1항에 있어서, 상기 프로세서는,
시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는, 전자 장치.
2. The apparatus of claim 1,
And determines a polynomial mapping function for each of the plurality of detected points of the detected calibration points during the calibration operation for gaze determination.
전자 장치에서의 시선 판단 방법에 있어서,
복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작;
상기 검출된 반사점의 패턴을 판단하는 동작; 및
이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함하는, 방법.
A method of determining a line of sight in an electronic device,
Detecting at least one reflex point on the cornea generated by the plurality of light sources;
Determining a pattern of the detected reflection points; And
Determining a line of sight by a mapping function corresponding to the number of reflection points from among a plurality of mapping functions for mapping from an image plane to a screen plane.
제11항에 있어서,
상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 더 포함하는, 방법.
12. The method of claim 11,
And determining a line of sight by a mapping function corresponding to the detected pattern of reflection points.
제12항에 있어서,
상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하는 동작; 및
상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는 동작;을 더 포함하는, 방법.
13. The method of claim 12,
Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources; And
And determining the mapping function for each light source pattern of the plurality of light source patterns.
제12항에 있어서,
상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장되는, 방법.
13. The method of claim 12,
Wherein the plurality of light source patterns are mapped to coded data and stored.
제14항에 있어서,
상기 복수의 광원 패턴들은 2진 코드로 부호화되는, 방법.
15. The method of claim 14,
Wherein the plurality of light source patterns are encoded in a binary code.
제11항에 있어서,
상기 광원은 IR(infrared) LED(light emitting diode)를 포함하는, 방법.
12. The method of claim 11,
Wherein the light source comprises an infrared (LED) light emitting diode.
제11항에 있어서,
적외선 카메라에 의해 안구 이미지를 촬영하는 동작;을 더 포함하는, 방법.
12. The method of claim 11,
Further comprising: capturing an eye image by an infrared camera.
제11항에 있어서, 상기 시선을 판단하는 동작은,
상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하는 동작; 및
상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는 동작;을 포함하는, 방법.
The method as claimed in claim 11,
Converting the image plane to a virtual normalized plane; And
And mapping the virtual normalized plane to the screen plane.
제18항에 있어서,
상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현되는, 방법.
19. The method of claim 18,
Wherein the mapping function for mapping from the hypothetical normalized plane to the screen plane is represented by a polynomial function.
제11항에 있어서,
시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는 동작;을 더 포함하는, 방법.
12. The method of claim 11,
Determining a polynomial mapping function for each of the plurality of detected points of the plurality of detected points during a calibration operation for visual determination.
KR1020140159084A 2014-11-14 2014-11-14 Electronic device and method for determining a gaze of a user in electronic device KR20160057888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140159084A KR20160057888A (en) 2014-11-14 2014-11-14 Electronic device and method for determining a gaze of a user in electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140159084A KR20160057888A (en) 2014-11-14 2014-11-14 Electronic device and method for determining a gaze of a user in electronic device

Publications (1)

Publication Number Publication Date
KR20160057888A true KR20160057888A (en) 2016-05-24

Family

ID=56113978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140159084A KR20160057888A (en) 2014-11-14 2014-11-14 Electronic device and method for determining a gaze of a user in electronic device

Country Status (1)

Country Link
KR (1) KR20160057888A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190027081A (en) * 2017-09-06 2019-03-14 삼성전자주식회사 Electronic apparatus, method for controlling thereof and the computer readable recording medium
CN112869701A (en) * 2021-01-11 2021-06-01 上海微创医疗机器人(集团)股份有限公司 Sight line detection method, surgical robot system, control method, and storage medium
WO2022158795A1 (en) * 2021-01-21 2022-07-28 삼성전자 주식회사 Augmented reality device and method for detecting user's gaze

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190027081A (en) * 2017-09-06 2019-03-14 삼성전자주식회사 Electronic apparatus, method for controlling thereof and the computer readable recording medium
CN112869701A (en) * 2021-01-11 2021-06-01 上海微创医疗机器人(集团)股份有限公司 Sight line detection method, surgical robot system, control method, and storage medium
CN112869701B (en) * 2021-01-11 2024-03-29 上海微创医疗机器人(集团)股份有限公司 Sight line detection method, surgical robot system, control method, and storage medium
WO2022158795A1 (en) * 2021-01-21 2022-07-28 삼성전자 주식회사 Augmented reality device and method for detecting user's gaze

Similar Documents

Publication Publication Date Title
KR102344045B1 (en) Electronic apparatus for displaying screen and method for controlling thereof
CN107665485B (en) Electronic device and computer-readable recording medium for displaying graphic objects
KR20180106527A (en) Electronic device and method for identifying falsification of biometric information
KR102548199B1 (en) Electronic device and method for tracking gaze in the electronic device
KR20160091114A (en) Apparatus and method for iris recognition using display information
CN110325993B (en) Electronic device for performing authentication by using a plurality of biometric sensors and method of operating the same
KR20160071139A (en) Method for calibrating a gaze and electronic device thereof
KR20160125142A (en) Method and apparatus for sensing fingerprints
KR102365412B1 (en) Electronic device and method for authenticating finger print
KR20160126802A (en) Measuring method of human body information and electronic device thereof
KR20170097884A (en) Method for processing image and electronic device thereof
KR20180098058A (en) Method and electronic device for identifying position of sensor using pixels of display
KR20160124536A (en) Method and electronic apparatus for providing user interface
KR20160061053A (en) An electronic apparatus and a method for displaying a screen of the electronic apparatus
EP3287924A1 (en) Electronic device and method for measuring heart rate based on infrared rays sensor using the same
KR20180089088A (en) Electronic device and a method for controlling a biometric sensor associated with a display using the same
KR20170014407A (en) Apparatus and method for controlling a security of electronic device
KR20190007619A (en) Electronic device and method for providing digerstibility on eaten food
KR102547054B1 (en) Electronic device and method for controlling activation of camera module
KR102355759B1 (en) Electronic apparatus for determining position of user and method for controlling thereof
US20190349562A1 (en) Method for providing interface for acquiring image of subject, and electronic device
KR20160042629A (en) Electronic device and method for measuring a velocity in the electronic device
KR20170081925A (en) Method for storing image and electronic device thereof
KR20170100281A (en) Electronic device for determining position and method for operating thereof
KR20160057888A (en) Electronic device and method for determining a gaze of a user in electronic device

Legal Events

Date Code Title Description
A201 Request for examination