KR20160057888A - Electronic device and method for determining a gaze of a user in electronic device - Google Patents
Electronic device and method for determining a gaze of a user in electronic device Download PDFInfo
- Publication number
- KR20160057888A KR20160057888A KR1020140159084A KR20140159084A KR20160057888A KR 20160057888 A KR20160057888 A KR 20160057888A KR 1020140159084 A KR1020140159084 A KR 1020140159084A KR 20140159084 A KR20140159084 A KR 20140159084A KR 20160057888 A KR20160057888 A KR 20160057888A
- Authority
- KR
- South Korea
- Prior art keywords
- mapping
- detected
- light source
- plane
- electronic device
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/60—Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/32—Normalisation of the pattern dimensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
본 발명의 다양한 실시 예들은 전자 장치 및 전자 장치에서의 시선 판단 방법에 관한 것이다.Various embodiments of the present invention are directed to electronic devices and methods of determining a line of sight in an electronic device.
전자 장치에서 사용자의 시선(gaze)을 판단 및/또는 추적(tracking)하는 방법들의 예로서 홍채(iris), 동공(pupil), 또는 각막의 반짝임(glint) 등의 정보를 이용하여 시선을 판단 및/추적하는 방법들이 연구되고 있다.Examples of methods for judging and / or tracking a gaze of a user in an electronic device include a method of determining and determining a gaze using information such as an iris, a pupil, or a glint of the cornea, / Tracking methods are being studied.
사용자의 시선이 디스플레이 화면상의 어떤 부분을 바라보고 있는지를 확인하기 위하여, 사용자에게 정해진 위치를 바라보게 하고, 예컨대, 홍채, 동공, 각막의 반짝임 등을 분석함으로써 사용자의 시선이 바라보는 방향을 모델링할 수 있다.In order to check what portion of the user's gaze is looking at on the display screen, the user is asked to look at a predetermined position and the direction of the user's gaze is modeled by analyzing, for example, iris, pupil, .
화면상에서 사용자의 시선이 머무는 지점(point of gaze, 이하 'POG'라 한다)을 예측하고 추적하는 기술은 그 직관적이고 편리한 사용방식 때문에 최근 다양한 사람-장치 간 인터페이스(human-device interface) 기술의 발전과 더불어 많은 연구가 진행되고 있다.The technique of predicting and tracking the point of gaze (POG) of the user's viewpoint on the screen has been recently developed due to its intuitive and convenient usage method, the development of various human-device interface technologies And so on.
최근의 시선 추적 기술들은 정확한 성능을 위해 가시광 카메라(visible camera)뿐만 아니라 적외선 카메라(IR(infrared) camera) 및 IR LED(light emitting diode) 조명 장치를 이용한다. 이들 기술들은 동공의 중심(pupil center, 이하 'PC'라 한다) 좌표와 함께 광원(예컨대, IR 조명)이 안구에서 반사되는 각막 반사점(corneal reflection, 이하 'CR'이라 한다)의 좌표를 사용한다. 이를 동공 중심 각막 반사점(pupil center corneal reflection(PCCR)) 기법이라고 부르며, 사용되는 CR의 개수에 따라 다양한 시선 추적 방법들이 존재할 수 있다.Recent line-of-sight technologies use IR cameras (IR cameras) and IR LED (light emitting diode) lighting devices for accurate performance as well as visible cameras. These techniques use the coordinates of a corneal reflection (hereinafter referred to as 'CR') in which a light source (for example, IR illumination) is reflected from the eye, together with the pupil center . This is called the pupil center corneal reflex (PCCR) technique, and there may be various eye tracking methods depending on the number of CRs used.
현존하는 시선 판단 또는 추적 방법에 따르면, 미리 정해진 개수의 CR을 기반으로 하는 시선 예측 방법에 의해 시선 판단을 수행하므로, 예컨대 사용자가 화면의 모서리 부분을 응시할 경우에는 검출되는 CR의 개수가 충분히 확보되지 않아 캘리브레이션이 정상적으로 완료되더라도 시선 예측이 불가능한 단점이 있다.According to the present eye gaze determination or tracking method, eye gaze determination is performed by a gaze prediction method based on a predetermined number of CRs. For example, when a user gazes at a corner of a screen, the number of detected CRs is not sufficiently secured There is a disadvantage in that it is impossible to predict the gaze even if the calibration is normally completed.
본 발명의 다양한 실시 예들은, 예를 들면, CR을 기반으로 하는 시선 예측 방법에서 CR이 검출되는 개수에 관계없이 시선 판단 및 추적이 가능한 전자 장치 및 전자 장치에서의 시선 판단 방법을 제공할 수 있다.The various embodiments of the present invention can provide an electronic device capable of eye gazing and tracking and a gaze determination method in an electronic device regardless of the number of CRs detected in a CR-based gaze prediction method, for example .
전술한 과제 또는 다른 과제를 해결하기 위한, 한 실시 예에 따른 전자 장치는, 이미지를 촬영하는 카메라부; 및 상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함할 수 있다.According to an embodiment of the present invention, there is provided an electronic device comprising: a camera unit for capturing an image; And a mapping corresponding to the number of detected detected points from a plurality of mapping functions for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and mapping from an image plane to a screen plane And a processor for determining a line of sight by a function.
또한, 다양한 실시 예 중 어느 하나에 따른 전자 장치의 동작 방법은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.Also, an operating method of an electronic device according to any one of the various embodiments is characterized by the steps of: detecting at least one reflex point on the cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.
다양한 실시 예에 따른 전자 장치 및 전자 장치에서의 시선 판단 방법은 CR을 기반으로 하는 시선 예측 방법에서 CR이 검출되는 개수에 관계없이 시선 판단 및 추적을 할 수 있다.The method of determining a line of sight in an electronic device and an electronic device according to various embodiments can determine and track a line of sight regardless of the number of CRs detected in a CR-based line of sight prediction method.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성 예를 나타내는 도면이다.
도 2는 본 발명의 다양한 실시 예에 따른 시선 추적의 모델링을 나타내는 도면이다.
도 3은 본 발명의 다양한 실시 예에 따른 시선 예측 방법의 매핑 함수를 나타내는 도면이다.
도 4는 본 발명의 다양한 실시 예에 따른 시선 추적을 위한 캘리브레이션 방법을 나타내는 도면이다.
도 5는 본 발명의 다양한 실시 예에 따른 호모그래피 정규화 방법을 나타내는 도면이다.
도 6은 본 발명의 다양한 실시 예에 따른 시선 측정 방법을 나타내는 도면이다.
도 7은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점들의 예를 나타내는 도면이다.
도 8은 본 발명의 다양한 실시 예에 따른 시선 측정 결과를 나타내는 도면이다.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 캘리브레이션 절차를 나타내는 흐름도이다.
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치의 시선 추적 절차를 나타내는 흐름도이다.
도 11은 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다.
도 12는 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점을 모델링하는 방법을 나타내는 도면이다.
도 13은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점의 패턴을 부호화하는 방법을 나타내는 도면이다.
도 14는 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다.
도 15는 본 발명의 다양한 실시 예에 따른 시선 추적 실험 결과를 나타내는 도면이다.
도 16은 본 발명의 다양한 실시 예에 따른 광원이 배치된 전자 장치를 나타내는 도면이다.
도 17은 본 발명의 다양한 실시 예에 따른 사용자의 시선을 나타내는 도면이다.
도 18은 본 발명의 다양한 실시 예에 따른 전자 장치의 화면상에서 캘리브레이션 및 테스트를 위해 사용된 타겟 포인트들을 나타내는 도면이다.
도 19는 본 발명의 실시 예에 따른 전자 장치의 세부 구조를 나타내는 블록도이다.
도 20은 본 발명의 다양한 실시 예에 따른 프로그램 모듈의 블록도이다.1 is a diagram showing an example of the configuration of an electronic device according to an embodiment of the present invention.
2 is a diagram illustrating modeling of eye tracking in accordance with various embodiments of the present invention.
3 is a diagram illustrating a mapping function of the gaze prediction method according to various embodiments of the present invention.
4 is a diagram illustrating a calibration method for eye tracking according to various embodiments of the present invention.
5 is a diagram illustrating a homography normalization method in accordance with various embodiments of the present invention.
6 is a diagram illustrating a method of measuring a line of sight according to various embodiments of the present invention.
Figure 7 is an illustration of examples of detectable reflections according to various embodiments of the present invention.
8 is a diagram showing a result of eye gaze measurement according to various embodiments of the present invention.
9 is a flow chart illustrating a calibration procedure of an electronic device according to various embodiments of the present invention.
10 is a flow chart illustrating a line-of-sight tracing procedure of an electronic device according to various embodiments of the present invention.
11 is a view showing a concept of a gaze measurement method according to various embodiments of the present invention.
12 is a diagram illustrating a method for modeling a detectable reflection point in accordance with various embodiments of the present invention.
13 is a diagram illustrating a method of encoding a pattern of detectable points of refraction in accordance with various embodiments of the present invention.
14 is a diagram showing a concept of a gaze measurement method according to various embodiments of the present invention.
FIG. 15 is a diagram illustrating a result of eye-tracking experiments according to various embodiments of the present invention.
16 is a diagram illustrating an electronic device in which a light source is disposed according to various embodiments of the present invention.
17 is a view showing a user's eyes according to various embodiments of the present invention.
18 is a diagram showing target points used for calibration and testing on the screen of an electronic device according to various embodiments of the present invention.
19 is a block diagram showing a detailed structure of an electronic device according to an embodiment of the present invention.
20 is a block diagram of a program module in accordance with various embodiments of the present invention.
이하, 본 개시의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.Hereinafter, various embodiments of the present disclosure will be described with reference to the accompanying drawings. It should be understood, however, that this disclosure is not intended to limit the present disclosure to the particular embodiments, but includes various modifications, equivalents, and / or alternatives of the embodiments of the present disclosure. In connection with the description of the drawings, like reference numerals may be used for similar components.
본 문서에서, "가진다", "가질 수 있다", "포함한다", 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In this document, the expressions "have," "may," "include," or "include" may be used to denote the presence of a feature (eg, a numerical value, a function, Quot ;, and does not exclude the presence of additional features.
본 문서에서, "A 또는 B", "A 또는/및 B 중 적어도 하나", 또는 "A 또는/및 B 중 하나 또는 그 이상" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B", " A 및 B 중 적어도 하나", 또는 " A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.In this document, the expressions "A or B," "at least one of A and / or B," or "one or more of A and / or B," etc. may include all possible combinations of the listed items . For example, "A or B," "at least one of A and B," or "at least one of A or B" includes (1) at least one A, (2) Or (3) at least one A and at least one B all together.
다양한 실시 예에서 사용된 "제 1", "제 2", "첫째", 또는 "둘째" 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 해당 구성요소들을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 개시의 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.Expressions such as " first, "second," first, "or" second, " as used in various embodiments, Not limited. The representations may be used to distinguish one component from another. For example, the first user equipment and the second user equipment may represent different user equipment, regardless of order or importance. For example, without departing from the scope of the present disclosure, the first component may be referred to as a second component, and similarly, the second component may be named as the first component.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다. (Or functionally or communicatively) coupled with / to "another component (eg, a second component), or a component (eg, a second component) Quot; connected to ", it is to be understood that any such element may be directly connected to the other element or may be connected through another element (e.g., a third element). On the other hand, when it is mentioned that a component (e.g., a first component) is "directly connected" or "directly connected" to another component (e.g., a second component) It can be understood that there is no other component (e.g., a third component) between other components.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)", "~하는 능력을 가지는(having the capacity to)", "~하도록 설계된(designed to)", "~하도록 변경된(adapted to)", "~하도록 만들어진(made to)", 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성(또는 설정)된"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성(또는 설정)된 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다. As used herein, the phrase " configured to " (or set) to be "adapted to, " To be designed to, "" adapted to, "" made to, "or" capable of ". The term " configured (or set) to "may not necessarily mean " specifically designed to" Instead, in some situations, the expression "configured to" may mean that the device can "do " with other devices or components. For example, a processor configured (or configured) to perform the phrases "A, B, and C" may be a processor dedicated to performing the operation (e.g., an embedded processor), or one or more software programs To a generic-purpose processor (e.g., a CPU or an application processor) that can perform the corresponding operations.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the scope of the other embodiments. The singular expressions may include plural expressions unless the context clearly dictates otherwise. All terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art of the present disclosure. Commonly used predefined terms may be interpreted to have the same or similar meaning as the contextual meanings of the related art and are not to be construed as ideal or overly formal in meaning unless expressly defined in this document . In some cases, the terms defined herein may not be construed to exclude embodiments of the present disclosure.
본 개시의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 전자 장치는 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상 전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 스마트 안경, 머리 착용형 장치(head-mounted-device(HMD)), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트 미러, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.An electronic device in accordance with various embodiments of the present disclosure may be, for example, a smartphone, a tablet personal computer, a mobile phone, a videophone, an e-book reader reader, a desktop personal computer, a laptop personal computer, a netbook computer, a workstation, a server, a personal digital assistant (PDA), a portable multimedia player (PMP) , Mobile medical devices, cameras, or wearable devices such as smart glasses, head-mounted-devices (HMD), electronic apparel, electronic bracelets, electronic necklaces, (e. g., apps, e-tat, smart mirror, or smart watch).
어떤 실시 예들에서, 전자 장치는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(예: Xbox™, PlayStation™), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.In some embodiments, the electronic device may be a smart home appliance. Smart home appliances include, for example, televisions, digital video disk players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air cleaners, set- (Such as a home automation control panel, a security control panel, a TV box such as Samsung HomeSync ™, Apple TV ™ or Google TV ™), a game console (eg Xbox ™, PlayStation ™) A dictionary, an electronic key, a camcorder, or an electronic frame.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.In an alternative embodiment, the electronic device may be any of a variety of medical devices (e.g., various portable medical measurement devices such as a blood glucose meter, a heart rate meter, a blood pressure meter, or a body temperature meter), magnetic resonance angiography (MRA) A global positioning system receiver, an event data recorder (EDR), a flight data recorder (FDR), an automotive infotainment device, a navigation system, a navigation system, Electronic devices (eg marine navigation devices, gyro compass, etc.), avionics, security devices, head units for vehicles, industrial or home robots, ATMs (automatic teller's machines) point of sale, or internet of things such as light bulbs, various sensors, electricity or gas meters, sprinkler devices, fire alarms, thermostats, street lights, toasters ), A fitness equipment, a hot water tank, a heater, a boiler, etc.).
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 개시의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.According to some embodiments, the electronic device is a piece of furniture or a part of a building / structure, an electronic board, an electronic signature receiving device, a projector, Water, electricity, gas, or radio wave measuring instruments, etc.). In various embodiments, the electronic device may be a combination of one or more of the various devices described above. An electronic device according to some embodiments may be a flexible electronic device. Further, the electronic device according to the embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technological advancement.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 구성 예를 나타내는 도면이다. 도 1을 참조하면, 본 발명의 일 실시 예에 따른 전자 장치는 제어부(110), 광원부(120), 카메라부(130), 표시부(140), 입력부(150), 또는 저장부(160) 중 적어도 어느 하나를 포함하여 구성될 수 있다. 또한, 상기 제어부(110)는 캘리브레이션 처리부(111), 매핑 함수 결정부(112), 반사점 검출부(113), 또는 시선 판단부(114) 중 적어도 어느 하나를 포함하여 구성될 수 있다.1 is a diagram showing an example of the configuration of an electronic device according to an embodiment of the present invention. 1, an electronic device according to an exemplary embodiment of the present invention includes a
캘리브레이션 처리부(111)는 사용자의 시선에 대한 캘리브레이션을 처리하는 기능을 수행할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션 처리부(111)는 별도의 캘리브레이션 설정 메뉴를 통해 캘리브레이션을 수행하도록 구현할 수도 있다. 예컨대, 입력부(150)를 통해 사용자가 캘리브레이션 기능을 실행하면, 표시부(140)를 통해 미리 설정된 적어도 하나의 위치에 마크(mark)를 표시하고, 사용자가 해당 마크를 응시하면, 마크가 표시된 위치에 대한 사용자의 시선 정보를 기반으로 캘리브레이션을 수행할 수 있다.The calibration processing unit 111 may perform a function of processing calibration of the user's gaze. According to various embodiments of the present invention, the calibration processing unit 111 may be implemented to perform calibration through a separate calibration setting menu. For example, when the user executes the calibration function through the
시선 판단부(114)는 사용자의 시선을 판단하는 기능을 수행할 수 있다. 또한, 상기 시선 판단부(114)는 사용자의 시선을 판단하고, 사용자의 시선을 추적하는 기능을 더 수행할 수 있다.The visual
상기 시선 판단부(114)의 시선 판단 방법은 다양한 시선 판단 알고리즘에 의해 구현될 수 있으며, 본 발명의 다양한 실시 예들이 특정 알고리즘으로 한정되는 것은 아니다. 예컨대, 본 발명의 다양한 실시 예에 따라 상기 시선 판단부(114)는 사용자의 홍채, 동공, 각막의 반짝임 등의 정보를 이용하여 안구의 모양을 모델링하고, 이를 통해 사용자의 시선을 판단 또는 추적할 수 있다.The gaze determination method of the
또한, 본 발명의 다양한 실시 예에 따라, 상기 시선 판단부(114)는 카메라부(130) 또는 광원부(120)와 연동하여 사용자의 시선(또는 시선 방향)을 판단할 수도 있다. 예컨대, 카메라부(130)를 통해 사용자의 얼굴 또는 안구를 촬영하고, 촬영된 이미지를 분석하여 사용자의 시선을 판단할 수 있다.In addition, according to various embodiments of the present invention, the
또한, 본 발명의 다양한 실시 예에 따라, 상기 제어부(110)의 제어에 의해 광원부(120)가 적어도 하나의 광원을 발광시키도록 할 수 있다. 상기 시선 판단부(114)에서는 상기 광원부(120)를 통해 광원이 발광할 때, 상기 카메라부(130)를 통해 사용자의 얼굴 또는 안구를 촬영하고, 촬영된 이미지에서 안구에 맺힌 광원(예컨대, 안구에서 반사되는 각막 반사점(CR))의 위치를 확인함으로써 사용자의 시선을 판단할 수 있다.In addition, according to various embodiments of the present invention, the
상기 캘리브레이션 처리부(111)를 통해 처리된 캘리브레이션 정보(161) 및/또는 상기 시선 판단부(114)를 통해 판단된 시선 정보(163)는 저장부(160)에 저장될 수 있다. 또한, 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션 정보(161) 및/또는 상기 시선 정보(163)는 각 사용자 정보와 대응하여 저장될 수도 있다.The
본 발명의 다양한 실시 예에 따라, 상기 시선 판단부(114)는 각막 반사점을 기반으로 시선을 판단할 경우, 상기 각막 반사점이 검출되는 개수에 관계없이 시선 판단 및 추적을 할 수 있다.According to various embodiments of the present invention, when the
예컨대, 본 발명의 다양한 실시 예에 따라, 시선 판단 또는 시선 추적 기능이 동작하면, 반사점 검출부(113)는 상기 카메라부(130)를 통해 촬영된 이미지로부터 각막 반사점을 검출할 수 있다.For example, according to various embodiments of the present invention, when the gaze determination or the gaze tracking function is operated, the reflection
매핑 함수 결정부(112)에서는 상기 반사점 검출부(113)를 통해 검출된 반사점의 개수 및/또는 반사점의 패턴에 대응하는 매핑 함수를 결정할 수 있다. 예컨대, 상기 매핑 함수 결정부(112)는 저장부(160)에 저장된 매핑 함수 정보(162)를 참조하여, 상기 검출된 반사점의 개수 및/또는 반사점의 패턴에 대응하여 미리 설정된 매핑 함수를 시선 판단을 위한 매핑 함수로 결정할 수 있다. 상기 매핑 함수는 반사점의 개수 및/또는 패턴에 따라 적용 가능한 방식들에 관한 함수들로서, 예컨대 HTN(homography transform based normalization) 방식, ATN(affine transform based normalization) 방식, 또는 STN(similarity transform based normalization) 방식 중 적어도 하나의 방식을 포함할 수 있다. 상기 반사점의 개수 및/또는 반사점의 패턴에 대응하여 매핑 함수를 결정하는 방법에 대한 구체적인 실시 예는 후술하기로 한다.The mapping
상기 매핑 함수 결정부(112)에 의해 시선 판단에 적용할 매핑 함수가 결정되면, 상기 시선 판단부(114)에서는 상기 반사점 검출부(113)를 통해 검출된 반사점에 관한 정보(예컨대, 반사점의 위치 정보)를 상기 매핑 함수 결정부(112)를 통해 결정된 매핑 함수에 적용함으로써 검출된 반사점의 개수에 관계없이 사용자의 시선을 판단할 수 있다.When the mapping function to be applied to the gaze determination is determined by the mapping
한편, 본 발명의 다양한 실시 예에서 각 기능부 또는 모듈이라 함은, 본 발명의 다양한 실시 예의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 각 기능부 또는 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어 리소스의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 실시 예의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In the various embodiments of the present invention, each functional unit or module may mean a functional and structural combination of hardware for performing the technical idea of various embodiments of the present invention and software for driving the hardware. For example, each functional unit or module may refer to a logical unit of a predetermined code and a hardware resource for executing the predetermined code, and may be a code that is physically connected, or a type of hardware Or may be easily deduced to the average expert in the field of the embodiments of the present invention.
본 발명의 다양한 실시 예 중 어느 하나에 따른 전자 장치는, 이미지를 촬영하는 카메라부; 및 상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함할 수 있다.An electronic device according to any one of the various embodiments of the present invention includes: a camera unit for photographing an image; And a mapping corresponding to the number of detected detected points from a plurality of mapping functions for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and mapping from an image plane to a screen plane And a processor for determining a line of sight by a function.
본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단할 수 있다.According to various embodiments of the present invention, the processor can determine a line of sight by a mapping function corresponding to the detected pattern of the reflection points.
본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하고, 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정할 수 있다.According to various embodiments of the present invention, the processor may be configured to determine a plurality of light source patterns by combining at least one selected light source of the plurality of light sources, and to determine, for each of the plurality of light source patterns, Function can be determined.
본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be mapped to coded data and stored.
본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 2진 코드로 부호화될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be encoded into a binary code.
본 발명의 다양한 실시 예에 따라, 상기 광원은 IR(infrared) LED(light emitting diode)를 포함할 수 있다.According to various embodiments of the invention, the light source may comprise an infrared (LED) light emitting diode.
본 발명의 다양한 실시 예에 따라, 상기 카메라부는, 적외선 카메라를 포함할 수 있다.According to various embodiments of the present invention, the camera unit may include an infrared camera.
본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하고, 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑할 수 있다.According to various embodiments of the present invention, the processor may convert from the image plane to a virtual normalized plane and map the virtual normalized plane to the screen plane.
본 발명의 다양한 실시 예에 따라, 상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현될 수 있다.According to various embodiments of the present invention, the mapping function for mapping from the hypothetical normalized plane to the screen plane may be represented by a polynomial function.
본 발명의 다양한 실시 예에 따라, 상기 프로세서는, 시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정할 수 있다.According to various embodiments of the present invention, the processor may determine a polynomial mapping function for each of the patterns for a plurality of detected reflections during a calibration operation for gaze determination.
도 2는 본 발명의 다양한 실시 예에 따른 시선 추적의 모델링을 나타내는 도면이다. 도 2를 참조하면, 다양한 방법에 의해 시선 추적을 모델링할 수 있다.2 is a diagram illustrating modeling of eye tracking in accordance with various embodiments of the present invention. Referring to FIG. 2, eye tracking can be modeled by various methods.
예컨대, 시선 추적 모델링의 일 예로서 HN(homography normalization) 기법을 이용하여 시선 추적 방법을 기하학적으로 모델링할 수 있다. 상기 HN 기법에 의한 모델은 3개의 평면으로 구성될 수 있다. 첫째, 화면의 네 모서리에 IR 광원(L1-L4)(211, 212, 213, 214)을 부착한 모니터 스크린 평면(ПS)(210), 네 개의 CR(G1-G4)(231, 232, 233, 234)로 구성된 각막 평면(corneal plane)(ПC)(230), 그리고 카메라 이미지 평면(ПI)(220)이다.For example, the gaze tracking method can be geometrically modeled using HN (homography normalization) as an example of gaze tracking modeling. The model based on the HN technique may be composed of three planes. First, a monitor screen plane (П S ) 210 with four IR light sources (L 1 -L 4 ) 211, 212, 213, and 214 attached to four corners of the screen, four CR (G 1 -G 4 ) 230, 231, 232, 233, and 234, and a camera image plane (П I ) 220. The corneal plane (П C )
입력된 안구 이미지가 얻어지는 과정을 보면, 우선 네 개의 IR 광원들(L1-L4)(211, 212, 213, 214)이 각막(corneal)에 맺히게 되고(G1-G4)(231, 232, 233, 234), 다음으로 G1-G4(231, 232, 233, 234)와 평면 ПC(230) 상의 점 PC(P)가 카메라를 통하여 이미지 평면(image plane)(ПI)(220)에 맺히게 된다. 이로써 최종적으로 안구 이미지의 PC(P)와 네 개의 CR(g1-g4)(221, 222, 223, 224)들을 생성하게 된다.In the process of obtaining the input eye image, four IR light sources (L1 to L4) 211, 212, 213 and 214 are first formed on the corneal (G 1 -G 4 ) 233, 234), followed by G 1 -G 4 (231, 232 , 233, 234) and a flat П C (230) point PC (P), the image plane (image plane) (П I) (220 through the camera on the ). Thus, finally, the PC (P) of the eye image and the four CRs (g 1 -g 4 ) 221, 222, 223, and 224 are generated.
도 3은 본 발명의 다양한 실시 예에 따른 시선 예측 방법의 매핑 함수를 나타내는 도면이다. 예컨대, 본 발명의 다양한 실시 예에 따라 PCCR 방식의 기하학적 모델이 적용될 수 있다. 도 3을 참조하면, HN 방식에서의 POG 예측은 도시된 바와 같이 두 개의 매핑 함수(mapping function; MF)로 구성될 수 있다. ПI(310)에서 ПN(320)으로의 매핑과 ПN(320)에서 ПS(330)로의 매핑이다. 여기서 ПN(320)은 단위 스퀘어(unit square)의 크기를 갖는 정규화된 평면(normalized plane)이다.3 is a diagram illustrating a mapping function of the gaze prediction method according to various embodiments of the present invention. For example, a geometric model of the PCCR scheme may be applied in accordance with various embodiments of the present invention. Referring to FIG. 3, the POG prediction in the HN scheme may be composed of two mapping functions (MF) as shown in FIG. The mapping from П I (310) to П N (320) and from П N (320) to П S (330). Where N (320) is a normalized plane with a unit square size.
안구 이미지에서 검출된 PC인 PI가 호모그래피(homography) 함수 을 통하여 ПN(320) 평면으로 매핑될 수 있다. 이는 ПI(310)상의 4개의 CR들(g1-g4)과 ПN(320)의 네 모서리 지점(G1-G4)을 이용하여 가능하다.The P I detected in the eye image was the homography function Can be mapped to the П N (320) plane. This is achieved by using the four corner points (G 1 -G 4) of the I П four CR on the (310) (g 1 -g 4 ) and П N (320).
ПN(320)상의 PC인 PN을 함수 을 이용하여 ПS(330)상의 점으로 매핑하여 최종 POG를 얻을 수 있다. 은 캘리브레이션 과정을 통해 얻을 수 있다.P N , the PC on N (320) To obtain a final POG by mapping to points on the П S (330). Can be obtained through a calibration process.
따라서, 전체 매핑 함수는 로 나타낼 수 있으며, 상기 함수에 의해,ПI(310) 평면에서 ПS(330) 평면으로 매핑될 수 있다.Thus, the full mapping function And can be mapped to the П S (330) plane in the П I (310) plane by the function.
캘리브레이션을 위해 사용자는 화면상의 4개 또는 9개(또는 그 이상) 지점을 순차적으로 바라보도록 하며, 각 시점에서의 ПN(1320) 상에서의 PC 좌표 PN들을 저장하여 각각 해당 화면상의 대응 좌표들과의 호모그래피(homography) 함수 을 계산할 수 있다. 상기 단계에서는 오류를 최소화하기 위한 방법으로 "ransac" 또는 최소 자승(least square) 알고리즘을 사용할 수 있다.For calibration, the user views four or nine (or more) points sequentially on the screen, stores the PC coordinates P N on the N N (1320) at each point in time and obtains corresponding coordinates Homography function with Can be calculated. In this step, a "ransac" or a least square algorithm can be used as a method for minimizing the error.
상기 캘리브레이션 방법은 본 발명의 다양한 실시 예들 중 적어도 하나에 적용할 수 있는 실시 예로서, 본 발명의 다양한 실시 예들은 상기 캘리브레이션 방법 이외의 다양한 캘리브레이션 방법들이 적용될 수 있으며, 상기 개시된 방법으로 한정되는 것은 아니다.The calibration method may be applied to at least one of various embodiments of the present invention, and various embodiments of the present invention may be applied to various calibration methods other than the calibration method, and the present invention is not limited thereto .
도 4는 본 발명의 다양한 실시 예에 따른 시선 추적을 위한 캘리브레이션 방법을 나타내는 도면이다. 도 4를 참조하면, 캘리브레이션을 위해 사용자는 화면상에 표시된 9개의 기준점(401, 402, 403, 404, 405, 406, 407, 408, 409)을 순차적으로 바라보도록 하며, 모니터에 표시된 위치를 사용자가 주시할 때, 카메라 등을 통해 촬영된 사용자의 안구 이미지를 통해 시선 추적을 모델링할 수 있다.4 is a diagram illustrating a calibration method for eye tracking according to various embodiments of the present invention. 4, the user views the nine
도 5는 본 발명의 다양한 실시 예에 따른 호모그래피 정규화 방법을 나타내는 도면이다. 도 5를 참조하면, HN 기법을 이용한 캘리브레이션 방법으로서, 도 2 내지 도 4에서 상술한 바와 같이 촬영된 안구 이미지에서 적어도 하나의 반사점(CR)의 위치를 확인하고, 이를 기하학적인 모델에 의해 스크린 평면상의 위치로 매핑할 수 있다. 예컨대, 도시된 바와 같이 사용자가 설정된 복수의 기준점을 응시할 때, 각 기준점을 응시하는 복수의 촬영된 이미지 평면(image plane)(ПI)(510)으로부터 단위 스퀘어(unit square)의 크기를 갖는 가상의 정규화된 평면(virtual normalized plane)(ПN))(520)을 생성할 수 있다. 상기 가상의 정규화된 평면(ПN))(520)은 다시 스크린 평면(ПS)(530)에 매핑되며, 상기 가상의 정규화된 평면(ПN))(520)에서 스크린 평면(ПS)(530)으로 매핑하는 함수 가 결정될 수 있다. 상기 은 다항 함수(polynomial function)로 표현될 수 있다.5 is a diagram illustrating a homography normalization method in accordance with various embodiments of the present invention. Referring to FIG. 5, as a calibration method using the HN technique, a position of at least one reflection point CR in an eye image photographed as described above with reference to FIGS. 2 to 4 is confirmed, Can be mapped to positions on the image plane. For example, when a user gazes at a plurality of reference points set by the user, a virtual image having a size of a unit square from a plurality of photographed image planes (P I ) ( N N) ) 520 of the virtual normalized plane. The plane (П N)) (520) normalization of the virtual back screen plane (П S) is mapped to the 530, an of the virtual normalized plane (screen plane at П N)) (520) (П S) (530) Can be determined. remind Can be expressed as a polynomial function.
도 6은 본 발명의 다양한 실시 예에 따른 시선 측정 방법을 나타내는 도면이다. 도 6을 참조하면, 사용자가 화면의 특정 위치를 응시할 때, 전술한 도 5의 캘리브레이션 방법에 의해 모델링된 매핑 함수에 의해 사용자가 응시하는 화면상의 위치(사용자의 시선)를 추정할 수 있다.6 is a diagram illustrating a method of measuring a line of sight according to various embodiments of the present invention. Referring to FIG. 6, when the user gazes at a specific position on the screen, it is possible to estimate the position (the user's gaze) on the screen by the user by the mapping function modeled by the calibration method of FIG. 5 described above.
예컨대, 시선 추적을 위해 촬영된 이미지로부터 생성된 이미지 평면(ПI)(610)에서의 CR을 확인하고, 상기 이미지 평면을 가상의 정규화된 평면(ПN))(620)으로 변환시킬 수 있다. 상기 가상의 정규화된 평면(ПN)(620)은 상기 캘리브레이션시 결정된 다항 함수 에 의해 다시 스크린 평면(ПS)(630)에 매핑될 수 있다. 상기 가상의 정규화된 평면(ПN)(620)에서의 동공의 중심(P)을 상기 스크린 평면(ПS)(630)으로 변환시킴으로써 사용자가 응시하는 화면상의 위치(POG)를 결정할 수 있다.For example, the CR in the image plane (П I ) 610 generated from the photographed image may be checked for gaze tracking, and the image plane may be transformed into a virtual normalized plane (П N ) (620) . The virtual normalized plane ( P N ) (620) is determined by the polynomial function To the screen plane ( P S ) 630 again. It is possible to determine the position POG on the screen to be looked at by the user by converting the center P of the pupil in the virtual normalized plane P N 6 into the
도 7은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점들의 예를 나타내는 도면이다. 도 7을 참조하면, 사용자가 응시하는 시선의 방향에 따라 촬영된 이미지로부터 검출된 CR의 개수가 달라짐을 알 수 있다.Figure 7 is an illustration of examples of detectable reflections according to various embodiments of the present invention. Referring to FIG. 7, it can be seen that the number of CRs detected varies from the photographed image according to the direction of the line of sight of the user.
예컨대, 도 7의 (a)에서는 3개의 CR(701, 702, 703)이 검출됨을 알 수 있으며, 1개의 CR(704)은 검출되지 못함을 알 수 있다. 도 7의 (b)에서는 2개의 CR(711, 712)이 검출됨을 알 수 있으며, 나머지 2개의 CR(713)은 검출되지 못함을 알 수 있다. 도 7의 (c)에서는 2개의 CR(721, 722)이 검출됨을 알 수 있으며, 도 7의 (d)에서는 3개의 CR(731, 732, 733)이 검출됨을 알 수 있다.For example, in FIG. 7A, it can be seen that three
또한, 상기 도 7의 (a) 및 (b)에서는 각각 검출되지 못한 CR(704, 713)이 발생할 수 있음을 알 수 있다. 상기와 같이 검출되지 못한 CR이 발생할 경우, 어느 한 가지 방식에 따른 매핑 함수를 적용하지 못할 수 있다. 예컨대, 4개의 CR이 검출되어야 적용할 수 있는 HTN 방식을 적용하고자 할 경우, 상기 도 7에서와 같이 검출되지 못한 CR이 발생하여 검출된 CR의 개수가 1개, 2개, 또는 3개일 경우 시선 추적을 하지 못하는 경우가 발생할 수 있다.7 (a) and 7 (b),
본 발명의 다양한 실시 예에 따르면, 상기 검출되지 못한 CR이 발생하거나, 검출된 CR의 개수가 미리 설정된 매핑 함수(예컨대, HTN 방식에 따른 매핑 함수)의 조건을 만족하지 않을 경우에도 미리 설정된 복수의 매핑 함수들 중에서 어느 하나의 매핑 함수를 선택하여 적용함으로써 시선의 추적을 할 수 있다.According to various embodiments of the present invention, even when the detected CRs occur or the number of detected CRs does not satisfy the condition of a predetermined mapping function (for example, a mapping function according to the HTN scheme) It is possible to track the gaze by selecting and applying any one of the mapping functions.
도 8은 본 발명의 다양한 실시 예에 따른 시선 측정 결과를 나타내는 도면이다. 도 8을 참조하면, 촬영된 이미지에서 반사된 CR의 검출 개수에 따라 설정된 매핑 함수를 적용할 수 없는 경우를 나타낸다. 예컨대, 촬영된 이미지로부터 검출된 CR의 개수가 4개일 경우에는 시선 예측이 가능하나, 검출된 CR의 개수가 2개일 경우에는 시선 예측이 가능하지 않을 수 있다. 또한, 촬영된 이미지로부터 검출된 CR의 개수가 3개일 경우에는 검출되지 않은 나머지 하나의 CR을 예측함으로써 4개의 CR로부터 시선 예측을 할 수도 있다.8 is a diagram showing a result of eye gaze measurement according to various embodiments of the present invention. Referring to FIG. 8, a mapping function set according to the number of CRs detected in the photographed image can not be applied. For example, if the number of CRs detected from the photographed image is four, eye gaze prediction is possible, but if the number of detected CRs is two, gaze prediction may not be possible. If the number of CRs detected from the photographed image is three, eye gaze prediction may be performed from four CRs by predicting the remaining CR that has not been detected.
도 9는 본 발명의 다양한 실시 예에 따른 전자 장치의 캘리브레이션 절차를 나타내는 흐름도이다. 도 9를 참조하면, 동작 902에서, 캘리브레이션 모드가 설정되면, 동작 904에서 복수의 광원이 점등될 수 있다. 캘리브레이션을 위해 화면상에 복수의 기준점을 표시하고, 사용자가 각 기준점을 응시하도록 한 후 카메라를 통해 사용자의 안구를 촬영할 수 있다. 동작 906에서, 각 표시된 기준점을 응시한 복수의 촬영 이미지들로부터 각막에 형성된 반사점을 검출할 수 있다.9 is a flow chart illustrating a calibration procedure of an electronic device according to various embodiments of the present invention. Referring to FIG. 9, in
동작 908에서, 적어도 하나의 광원에 대응하는 상기 검출된 반사점들을 조합하여 복수의 광원 패턴(반사점의 패턴)을 결정할 수 있다. 동작 910에서, 각 광원에 따른 반사점의 패턴 또는 반사점의 개수별 매핑 함수를 결정할 수 있다.In
도 10은 본 발명의 다양한 실시 예에 따른 전자 장치의 시선 추적 절차를 나타내는 흐름도이다. 동작 1002에서, 시선 추적 모드가 실행되면, 동작 1004에서 복수의 광원이 점등될 수 있다. 시선 추적 모드 실행에 따라 카메라를 통해 사용자의 안구를 촬영할 수 있으며, 동작 1006에서, 촬영된 이미지로부터 각막상에 생성된 적어도 하나의 반사점을 검출할 수 있다.10 is a flow chart illustrating a line-of-sight tracing procedure of an electronic device according to various embodiments of the present invention. In
동작 1008에서, 상기 검출된 반사점의 패턴 또는 반사점의 개수를 확인하고, 동작 1010에서, 상기 검출된 반사점의 패턴 또는 반사점의 개수에 대응하여 미리 설정된 적어도 하나의 매핑 함수에 의해 사용자의 시선을 판단할 수 있다.At
상기 도 9 또는 도 10에 도시된 동작들 중 적어도 하나의 동작이 생략되어 실행될 수도 있으며, 적어도 하나의 다른 동작이 상기 동작들 사이에 추가될 수도 있다. 또한, 상기 도 9 또는 도 10의 동작들은 도시된 순서로 처리될 수도 있으며, 적어도 하나의 동작에 대한 실행 순서가 다른 동작의 실행 순서와 변경되어 처리될 수도 있다. 또한, 상기 도 9 또는 도 10에 도시된 동작들은 전자 장치 내에서 수행될 수도 있으며, 서버에서 수행될 수도 있다. 또한, 상기 도 9 또는 도 10에 도시된 동작들 중 적어도 하나의 동작들은 전자 장치 내에서 수행되고, 나머지 동작들은 서버에서 수행되도록 구현될 수도 있다.The operation of at least one of the operations shown in FIG. 9 or 10 may be omitted, and at least one other operation may be added between the operations. 9 or 10 may be processed in the order shown, and the order of execution of at least one operation may be modified and processed in accordance with the order of execution of other operations. In addition, the operations shown in FIG. 9 or 10 may be performed in the electronic device, or may be performed in the server. Further, at least one of the operations shown in FIG. 9 or 10 may be performed in the electronic device, and the remaining operations may be performed in the server.
본 발명의 다양한 실시 예 중 어느 하나에 따른 전자 장치의 동작 방법은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.The method of operating an electronic device according to any one of the various embodiments of the present invention is a method for determining a line of sight in an electronic device, the method comprising: detecting at least one reflection point on a cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.
본 발명의 다양한 실시 예에 따라, 상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 더 포함할 수 있다.According to various embodiments of the present invention, an operation of determining a line of sight by a mapping function corresponding to the pattern of the detected reflection points may be further included.
본 발명의 다양한 실시 예에 따라, 상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하는 동작; 및 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는 동작;을 더 포함할 수 있다.Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources, according to various embodiments of the present invention; And determining the mapping function for each light source pattern among the plurality of light source patterns.
본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be mapped to coded data and stored.
본 발명의 다양한 실시 예에 따라, 상기 복수의 광원 패턴들은 2진 코드로 부호화될 수 있다.According to various embodiments of the present invention, the plurality of light source patterns may be encoded into a binary code.
본 발명의 다양한 실시 예에 따라, 상기 광원은 IR(infrared) LED(light emitting diode)를 포함할 수 있다.According to various embodiments of the invention, the light source may comprise an infrared (LED) light emitting diode.
본 발명의 다양한 실시 예에 따라, 적외선 카메라에 의해 안구 이미지를 촬영하는 동작;을 더 포함할 수 있다.According to various embodiments of the present invention, an operation may be performed to photograph an eye image by an infrared camera.
본 발명의 다양한 실시 예에 따라, 상기 시선을 판단하는 동작은, 상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하는 동작; 및 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는 동작;을 포함할 수 있다.According to various embodiments of the present invention, the act of determining the line of sight further comprises: converting from the image plane to a virtual normalized plane; And mapping the virtual normalized plane to the screen plane.
본 발명의 다양한 실시 예에 따라, 상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현될 수 있다.According to various embodiments of the present invention, the mapping function for mapping from the hypothetical normalized plane to the screen plane may be represented by a polynomial function.
본 발명의 다양한 실시 예에 따라, 시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는 동작;을 더 포함할 수 있다.In accordance with various embodiments of the present invention, it may further comprise determining a polynomial mapping function for each of the patterns for a plurality of detected reflections during a calibration operation for gaze determination.
도 11은 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다. 도 11을 참조하면, 이미지 평면(1110)상에서 검출된 CR의 개수 또는 CR의 패턴에 따라 미리 설정된 시선 추적 방식에 따른 매핑 함수를 적용할 수 있다. 본 발명의 다양한 실시 예에 따라, 전술한 바와 같이 이미지 평면(1110)은 각 검출된 CR의 개수 또는 CR의 패턴에 따라 미리 설정된 매핑 함수를 적용함으로써 가상의 정규화된 평면(1120)으로 변환될 수 있으며, 각각의 가상의 정규화된 평면(1120)은 스크린 평면(1130)으로 변환될 수 있다.11 is a view showing a concept of a gaze measurement method according to various embodiments of the present invention. Referring to FIG. 11, a mapping function according to a predetermined line-of-sight tracking method can be applied according to the number of CRs detected on the
예컨대, 이미지 평면(1110)상에서 검출된 CR의 개수가 4개일 경우 HTN 방식에 따른 매핑 함수 를 적용할 수 있으며, 이미지 평면(1110)상에서 검출된 CR의 개수가 3개일 경우 ATN 방식에 따른 매핑 함수 를 적용할 수 있으며, 이미지 평면(1110)상에서 검출된 CR의 개수가 2개일 경우 STN 방식에 따른 매핑 함수 를 적용할 수 있다.For example, when the number of CRs detected on the
본 발명의 다양한 실시 예에 따라, 도 11에서 4개의 CR이 검출되는 경우, 상의 PC 의 좌표는 를 이용하여 상으로 매핑되어 를 얻을 수 있다. 본 발명의 다양한 실시 예에 따라, 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들(polynomial coefficients)을 저장하는 다항 캘리브레이션(polynomial calibration) 방식을 사용할 수 있다.According to various embodiments of the present invention, when four CRs are detected in Figure 11, Top PC The coordinates of Using Gt; Can be obtained. According to various embodiments of the present invention, a polynomial calibration scheme may be used to store polynomial coefficients between corresponding points on two planes looking at nine points.
또한, 본 발명의 다양한 실시 예에 따라, 도 11에서 3개의 CR이 검출되는 경우, AT(affine transform) 정규화(normalization)를 수행할 수 있다. 예컨대, 상의 PC 좌표는 를 이용하여 상으로 매핑되어 을 얻을 수 있다. 상기 는 3개의 CR(g1 내지 g3) 와 각각에 대응되는 상의 점 G1 내지 G3 간의 AT(affine transform)를 가능하게 하는 매핑 함수이다. 은 G1 내지 G3으로 이루어지는 직각 이등변 삼각형(두 변의 길이는 단위 길이(unit length))이다.Also, according to various embodiments of the present invention, when three CRs are detected in FIG. 11, an affine transform (AT) normalization may be performed. for example, Top PC The coordinates are Using Gt; Can be obtained. remind Three CR (g 1 to g 3) and corresponding to an individual Is an mapping function that enables an affine transform (AT) between the points G 1 to G 3 on the image plane. Is a right-angled isosceles triangle consisting of G 1 to G 3 (the length of the two sides is unit length).
4개의 CR이 검출되는 경우에서와 마찬가지로, 에서 로의 매핑을 위해 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들을 저장하는 다항 캘리브레이션 방식을 사용할 수 있다.As in the case where four CRs are detected, in A polynomial calibration scheme that stores the polynomial coefficients between the corresponding points on the two planes can be used while looking at nine points for mapping to the two points.
또한, 본 발명의 실시 예에 따라, 도 11에서 2개의 CR이 검출되는 경우, ST(similarity transform) 기반의 정규화를 수행할 수 있다. 예컨대, 상의 PC 좌표는 를 이용하여 상으로 매핑되어 을 얻을 수 있다. 상기 는 2개의 CR(g1-g2)과 각각에 대응되는 상의 점 G1-G2 간의 ST(similarity transform)를 가능하게 하는 매핑 함수이다. 은 G1 및 G2로 이루어지는 단위 길이를 갖는 직선일 수 있다. 마찬가지로, 에서 로의 매핑을 위해 9개 지점을 바라보며 두 평면상의 대응점들 간의 다항 계수들을 저장하는 다항 캘리브레이션 방식을 사용할 수 있다.In addition, according to the embodiment of the present invention, when two CRs are detected in FIG. 11, a similarity transform (ST) -based normalization can be performed. for example, Top PC The coordinates are Using Gt; Can be obtained. remind (G 1 -g 2 ) and two CR Is a mapping function that enables a similarity transform (ST) between the points G 1 and G 2 . May be a straight line having a unit length consisting of G 1 and G 2 . Likewise, in A polynomial calibration scheme that stores the polynomial coefficients between the corresponding points on the two planes can be used while looking at nine points for mapping to the two points.
도 12는 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점을 모델링하는 방법을 나타내는 도면이다. 도 12를 참조하면, 사용자의 안구의 움직임에 따라 검출 가능한 CR에 대하여 개수(예컨대, 4개, 3개, 2개 등), 종류, 위치 및 패턴 등을 분석할 수 있다. 사용자가 극단적으로 화면의 밖을 보는 경우, 1개의 CR이 검출되는 경우도 발생할 수 있다.12 is a diagram illustrating a method for modeling a detectable reflection point in accordance with various embodiments of the present invention. Referring to FIG. 12, it is possible to analyze the number (for example, four, three, two, etc.), kind, position, and pattern of the CR that can be detected according to the movement of the user's eyeball. When a user looks extremely out of the screen, a single CR may be detected.
예컨대, 사용자가 응시하는 화면의 영역에 따라, 정면을 응시할 경우(1207)에는 4개의 CR이 검출될 수 있다. 또한, 예컨대, 좌측 상단을 응시할 경우(1204), 우측 상단을 응시할 경우(1205), 좌측 하단을 응시할 경우(1209), 우측 하단을 응시할 경우(1210) 등에서는 4개의 CR이 검출될 수 있으며, 도시된 바와 같이 각각의 응시하는 방향에 따라 검출되는 CR의 위치 및 패턴 등이 상이할 수 있다.For example, according to the area of the screen to be examined by the user, four CRs can be detected when the user gazes at the front (1207). For example, four CRs may be detected in the case of gazing at the upper left corner (1204), gazing at the upper right corner (1205), gazing at the lower left corner (1209), gazing at the lower right corner (1210) As shown, the position and pattern of the CR detected according to each direction of gazing may be different.
또한, 본 발명의 다양한 실시 예에 따라, 사용자가 화면 밖을 응시할 경우(1201, 1202, 1203, 1206, 1208, 1211, 1212, 1213)에는 1개 또는 2개의 CR이 검출될 수 있으며, 응시하는 방향에 따라 검출되는 CR의 개수, 위치 및 패턴 등이 상이할 수 있다.Also, according to various embodiments of the present invention, one or two CRs may be detected when a user strikes off-screen (1201, 1202, 1203, 1206, 1208, 1211, 1212, 1213) The number, position, pattern, etc. of CRs detected in accordance with the direction may be different.
도 13은 본 발명의 다양한 실시 예에 따른 검출 가능한 반사점의 패턴을 부호화하는 방법을 나타내는 도면이다. 도 13은 본 발명의 다양한 실시 예에 따라 4개의 광원(예컨대, IR 광원)들로부터 검출될 수 있는 CR의 패턴을 분석하고 부호화하는 개념을 나타내는 도면이다.13 is a diagram illustrating a method of encoding a pattern of detectable points of refraction in accordance with various embodiments of the present invention. Figure 13 is a diagram illustrating the concept of analyzing and encoding a pattern of CRs that can be detected from four light sources (e.g., IR light sources) in accordance with various embodiments of the present invention.
도 13을 참조하면, 검출되는 CR의 개수 및 패턴들은 사용자가 응시하는 방향에 따라 다양하게 나타날 수 있다. 예컨대, 검출되는 CR의 개수는 1, 2, 3 또는 4개로 검출될 수 있다. 또한, 검출되는 CR의 패턴은 검출되는 CR의 위치에 따라 15가지의 패턴이 검출될 수 있다.Referring to FIG. 13, the number and patterns of detected CRs may vary depending on the direction in which the user looks. For example, the number of detected CRs can be detected as 1, 2, 3 or 4. In addition, the pattern of the detected CR can be detected in 15 patterns according to the position of the detected CR.
상기 검출 가능한 CR의 패턴은 설정된 코드로 부호화할 수 있다. 예컨대, 상기 도 13에서는 4개의 광원을 사용하여 4개까지의 CR이 검출 가능하므로, 4 비트의 2진 코드로 부호화할 수 있다. 본 발명의 다양한 실시 예에 따라 부호화된 코드의 각 자리는 특정 위치의 광원과 매핑될 수 있다. 예컨대, 도시된 바와 같이 우측 상단의 광원에서부터 반시계 방향으로 2진 코드의 자리를 부여할 수 있다.The pattern of the detectable CR can be encoded with a set code. For example, in FIG. 13, up to four CRs can be detected using four light sources, so that it can be encoded into a 4-bit binary code. According to various embodiments of the present invention, each digit of the encoded code may be mapped to a light source at a specific location. For example, as shown in the figure, the position of the binary code can be given in the counterclockwise direction from the light source at the upper right corner.
본 발명의 다양한 실시 예에 따라, 도 13에서 예시된 바와 같이 4개의 광원이 모두 검출되면, 2진 코드 '1111'로 부호화할 수 있으며, 이를 10진수로 변환하면 '15'가 될 수 있다. 또한, 도 13에서 예시된 바와 같이 좌측 하단의 광원만 검출되지 않고 나머지 3개의 광원들이 검출되면, 2진 코드 '1011'로 부호화할 수 있으며, 이를 10진수로 변환하면 '11'이 될 수 있다.According to various embodiments of the present invention, when all four light sources are detected as illustrated in FIG. 13, they can be encoded into a binary code '1111', which can be '15' when converted to a decimal number. In addition, as illustrated in FIG. 13, if only the light source at the lower left is not detected and the remaining three light sources are detected, it can be encoded into a binary code '1011', and converted into a decimal number to be '11' .
도 14는 본 발명의 다양한 실시 예에 따른 시선 측정 방법의 개념을 나타내는 도면이다. 도 14를 참조하면, 촬영된 안구 이미지로부터 PC 및 CR이 검출될 수 있으며, 전술한 바와 같이 검출된 CR의 패턴을 부호화할 수 있다.14 is a diagram showing a concept of a gaze measurement method according to various embodiments of the present invention. Referring to FIG. 14, PC and CR can be detected from the captured eye image, and the detected CR pattern can be encoded as described above.
예컨대, 촬영된 안구 이미지로부터 4개의 CR 검출된 상태에서 9개의 지점을 바라보는 캘리브레이션이 완료되었다고 가정할 수 있다. 본 발명의 다양한 실시 예에 따라, 상기 캘리브레이션의 수행 시 4개의 CR 중 3개 또는 2개가 검출되는 다양한 패턴들에 대해서도 각각 캘리브레이션을 수행할 수 있다. 예컨대, 3개 또는 2개의 CR을 이용한 정규화 방법으로는, 각 CR의 개수에 적용 가능한 정규화 방법(예컨대, ATM 기법 또는 STM 기법 등)을 사용할 수 있다.For example, it can be assumed that from the photographed eye image, the calibration of looking at nine points in the state of detecting four CRs is completed. According to various embodiments of the present invention, calibration may also be performed for various patterns in which three or two of the four CRs are detected in performing the calibration. For example, as a normalization method using three or two CRs, a normalization method (for example, an ATM technique or an STM technique) applicable to the number of CRs can be used.
상기 다양한 개수의 CR에 대한 캘리브레이션이 완료되면, 각 CR의 패턴에 대응하는 다항 계수로 구성되는 매핑 함수들(P15, P13, P14, P7, P11, P9, P6, P3, P12)이 결정될 수 있다. 예컨대, 검출된 CR이 4개인 경우에 대해서는 매핑 함수 P15가 결정될 수 있으며, 검출된 CR이 3개인 경우에 대해서는 매핑 함수 P13, P14, P7, P11이 결정될 수 있으며, 검출된 CR이 2개인 경우에 대해서는 매핑 함수 P9, P6, P3, P12 가 결정될 수 있다.When the calibration for the various numbers of CRs is completed, mapping functions P 15 , P 13 , P 14 , P 7 , P 11 , P 9 , P 6 , P 3 , P 12 ) can be determined. For example, the mapping function P 15 can be determined for four detected CRs, and the mapping functions P 13 , P 14 , P 7 , and P 11 can be determined for three detected CRs, The mapping functions P 9 , P 6 , P 3 , and P 12 can be determined.
상기와 같이 캘리브레이션 과정에서 각 검출된 CR의 개수 및 패턴에 대응하는 매핑 함수가 결정되면, 이후 시선 예측 또는 시선 추적이 실행될 경우, 검출되는 CR의 개수 및 패턴에 따라 상기 대응하는 매핑 함수를 이용하여 시선을 판단할 수 있다. 예컨대, 도 14에 도시된 바와 같이 시선 예측 실행 시, 촬영된 안구 이미지에서 검출된 CR의 개수가 3개이고, 그 패턴이 13이면, 상기 3개의 CR에 대해 적용 가능한 정규화 방법(예컨대, ATM 기법)을 통해 정규화 과정을 수행한 후, 상기 확인된 패턴인 13번 패턴에 해당하는 다항 매핑 함수 P13를 저장부로부터 독출하여 상기 검출된 CR에 적용함으로써 POG를 산출할 수 있다.If the mapping function corresponding to the number and pattern of the detected CRs is determined in the calibration process as described above, then when the gaze prediction or gaze tracking is performed, the corresponding mapping function is used according to the number and pattern of detected CRs The gaze can be judged. For example, as shown in FIG. 14, when the number of CRs detected in the captured eye image is 3 and the pattern is 13, normalization methods (for example, an ATM technique) applicable to the three CRs, The POG can be calculated by reading the polynomial mapping function P 13 corresponding to the
도 15 내지 도 18은 본 발명의 다양한 실시 예에 따른 실험 예를 나타내는 도면들이다.15 to 18 are diagrams showing experimental examples according to various embodiments of the present invention.
도 15는 본 발명의 다양한 실시 예에 따른 시선 추적 실험 결과를 나타내는 도면이다. 도 15를 참조하면, 모니터의 네 모서리에는 IR 광원을 설치하고, IR 카메라를 이용하여 640×480 해상도의 안구 이미지를 촬영하였으며, 세 명의 실험자들에 대하여 실험을 수행하였다.FIG. 15 is a diagram illustrating a result of eye-tracking experiments according to various embodiments of the present invention. Referring to FIG. 15, an IR light source was installed on the four corners of the monitor, and an eyeball image of 640x480 resolution was photographed using an IR camera. Experiments were performed on three subjects.
화면과 사용자 간의 거리 65cm 상에서 화면상의 9개 지점을 바라보며 캘리브레이션을 수행한 후, 테스트 과정에서는 65cm, 55cm, 75cm으로 화면과의 거리를 변동하면서 머리를 움직일 수 있게 하였다. 머리를 움직이는 것은 CR의 검출이 어려운 환경을 조성하기 위해서이다. 가로, 세로 회전각도 20°, 좌우상하 평행이동은 10cm를 머리의 움직임의 허용 범위로 정의하였다.The distance between the screen and the user was 65cm. After performing the calibration by looking at the nine points on the screen, the distance between the screen and the screen was changed to 65cm, 55cm, and 75cm. Moving the head is to create an environment where CR detection is difficult. Horizontal and vertical rotation angle of 20 °, and left and right up and down parallel movement of 10 cm was defined as the permissible range of movement of the head.
도 15는 종래 기술로 4개의 CR이 있어야 동작하는 HN 기법과 본 발명의 다양한 실시 예에 따른 기법과의 성능 비교 결과를 나타낸다. 실험 결과 값은 각 거리에서의 9개 테스트 지점 응시 실험 시 예측 오차 각도(degree) 및 표준 편차를 나타낸다.FIG. 15 shows the performance comparison result between the HN technique operating with four CRs according to the prior art and the technique according to various embodiments of the present invention. The experimental results show the prediction error angle (degree) and the standard deviation at the test of 9 test points at each distance.
도 15에 도시된 바와 같이, 4개의 CR이 검출된 경우, 종래의 HN 기법을 이용하여 약 1.19도 시선 예측 성능을 얻었고, 본 발명의 다양한 실시 예들이 적용된 기법을 이용하여 2, 3개의 CR에 대해서도 시선을 예측함으로써 약 1.35도의 시선 예측 성능을 얻었다. 실험 전체적으로 검출되는 CR의 개수를 보면 4개 모두 검출되는 비율은 80.6%, 2, 3개가 검출되는 비율은 19.4%임을 확인할 수 있는데, 이로써 본 발명의 다양한 실시 예에 따른 기법을 사용할 경우, 종래 기법으로는 결과를 얻을 수 없던 상황에 성공적으로 대처하여 시선 예측을 할 수 있음을 알 수 있다.As shown in FIG. 15, when four CRs are detected, a visual prediction performance of about 1.19 degrees is obtained using the conventional HN technique, and the predictive performance of two or three CRs The gaze prediction performance of about 1.35 degrees was obtained. If the number of CRs detected in the entire experiment is examined, it can be seen that the ratio of detection of all four is 80.6%, and the ratio of detecting two or three is 19.4%. Thus, when using the technique according to various embodiments of the present invention, It can be understood that the gaze prediction can be performed by successfully coping with the situation where the result can not be obtained.
이하에서는, 도 16 내지 도 18을 참조하여 24인치 화면(1920x1080)의 모니터를 사용하여 실시한 시선 예측 실험의 결과를 설명한다. 도 16을 참조하면, 화면(1600)의 네 모서리에는 IR 광원들(1611, 1612, 1613, 1614)이 구비될 수 있다. 모니터에 구비된 IR 카메라(1620)를 이용하여 640×480 해상도의 안구 이미지를 촬영하며, 하기 <표 1>과 같이 여섯 명의 실험 대상자들에 대하여 실험을 수행하였다.Hereinafter, the results of the eye gaze prediction experiment performed using the monitor of the 24-inch screen (1920x1080) will be described with reference to FIGS. 16 to 18. FIG. Referring to FIG. 16,
도 17에 도시된 바와 같이, 모니터(1700)의 네 모서리에 IR 광원들(1711)이 구비되며, 화면과 사용자들 간의 거리는 70cm 를 유지하고, 머리를 고정한 채로 9개 점을 바라보며 캘리브레이션을 수행하였다. 실험을 위해 화면(1721)상의 9개의 지점을 응시하도록 하였다.17, the
일반적인 HN 기법(Ori_HN)과 제안하는 HTN, ATN, STN 기법들과의 성능 비교 결과는 하기 <표 1>과 같다. 하기 <표 1>은 9개의 테스트 지점에 대한 응시 실험 시의 예측 오차 각도(degree)와 표준 편차를 보여준다.Table 1 shows the performance comparison results between the general HN technique (Ori_HN) and the proposed HTN, ATN, and STN techniques. Table 1 below shows the prediction error angles (degrees) and standard deviations during the test for the nine test points.
<표 1>을 통해 HTN의 결과가 종래의 HN 결과보다 개선된 것임을 확인할 수 있으며, 3개, 2개의 CR만을 사용할 때에도 제안하는 방법을 사용할 경우 그 성능이 HN 기법보다 우월한 것을 알 수 있다.<Table 1> shows that the result of HTN is improved than that of the conventional HN. Even when using only 3 or 2 CRs, the performance of the proposed method is superior to that of the HN method.
도 18은 본 발명의 다양한 실시 예에 따른 전자 장치의 화면상에서 캘리브레이션 및 테스트를 위해 사용된 타겟 포인트들을 나타내는 도면이다. 도 18을 참조하면, 화면상에서 사각형의 표시는 캘리브레이션을 위해 설정된 타켓 포인트들을 나타내며, 십자 표시는 시선 추적을 위한 테스트 포인트들을 나타낸다.18 is a diagram showing target points used for calibration and testing on the screen of an electronic device according to various embodiments of the present invention. Referring to FIG. 18, a square display on the screen indicates target points set for calibration, and a cross mark indicates test points for eye tracking.
도 19는 다양한 실시 예에 따른 전자 장치(1901)의 블록도(1900)이다. 상기 전자 장치(1901)는, 예를 들면, 도 1에 도시된 전자 장치의 전체 또는 일부를 포함할 수 있다. 상기 전자 장치(1901)는 하나 이상의 애플리케이션 프로세서(AP: application processor)(1910), 통신 모듈(1920), SIM(subscriber identification module) 카드(1924), 메모리(1930), 센서 모듈(1940), 입력 장치(1950), 디스플레이(1960), 인터페이스(1970), 오디오 모듈(1980), 카메라 모듈(1991), 전력 관리 모듈(1995), 배터리(1996), 인디케이터(1997), 및 모터(1998)를 포함할 수 있다. 19 is a block diagram 1900 of an electronic device 1901 according to various embodiments. The electronic device 1901 may include all or part of the electronic device shown in Fig. 1, for example. The electronic device 1901 includes one or more application processors (APs) 1910, a
상기 AP(1910)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 상기 AP(1910)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1910)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시 예에 따르면, 상기 AP(1910)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 상기 AP(1910)는 도 19에 도시된 구성요소들 중 적어도 일부를 포함할 수도 있다. 상기 AP(1910)는 다른 구성요소들 (예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.The
상기 통신 모듈(1920)은, 예를 들면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927), NFC 모듈(1928) 및 RF(radio frequency) 모듈(1929)을 포함할 수 있다.The
상기 셀룰러 모듈(1921)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 가입자 식별 모듈(예: SIM 카드(1924))을 이용하여 통신 네트워크 내에서 전자 장치(1901)의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 상기 AP(1910)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 상기 셀룰러 모듈(1921)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.The
상기 WIFI 모듈(1923), 상기 BT 모듈(1925), 상기 GPS 모듈(1927) 또는 상기 NFC 모듈(1928) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927) 또는 NFC 모듈(1928) 중 적어도 일부(예: 두 개 이상)는 하나의 집적 칩(integrated chip)(IC) 또는 IC 패키지 내에 포함될 수 있다. Each of the
상기 RF 모듈(1929)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. 상기 RF 모듈(1929)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈(1921), WIFI 모듈(1923), BT 모듈(1925), GPS 모듈(1927) 또는 NFC 모듈(1928) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.The
상기 SIM 카드(1924)는, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID (integrated circuit card identifier)) 또는 가입자 정보(예: IMSI (international mobile subscriber identity))를 포함할 수 있다. The
상기 메모리(1930)(예: 메모리(1930))는, 예를 들면, 내장 메모리(1932) 또는 외장 메모리(1934)를 포함할 수 있다. 상기 내장 메모리(1932)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive (SSD)) 중 적어도 하나를 포함할 수 있다.The memory 1930 (e.g., memory 1930) may include, for example, an
상기 외장 메모리(1934)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 상기 외장 메모리(1934)는 다양한 인터페이스를 통하여 상기 전자 장치(1901)와 기능적으로 및/또는 물리적으로 연결될 수 있다.The
상기 센서 모듈(1940)은, 예를 들면, 물리량을 계측하거나 전자 장치(1901)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(1940)은, 예를 들면, 제스처 센서(1940A), 자이로 센서(1940B), 기압 센서(1940C), 마그네틱 센서(1940D), 가속도 센서(1940E), 그립 센서(1940F), 근접 센서(1940G), 컬러(color) 센서(예: RGB(red, green, blue) 센서(1940H)), 생체 센서(1940I), 온/습도 센서(1940J), 조도 센서(1940K), 또는 UV(ultra violet) 센서(1940M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대안적으로, 상기 센서 모듈(1940)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 상기 센서 모듈(1940)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(1901)는 AP(1910)의 일부로서 또는 별도로, 센서 모듈(1940)을 제어하도록 구성된 프로세서를 더 포함하여, 상기 AP(1910)가 슬립 (sleep) 상태에 있는 동안, 센서 모듈(1940)을 제어할 수 있다.The
상기 입력 장치(1950)는, 예를 들면, 터치 패널 (touch panel)(1952), (디지털) 펜 센서(pen sensor)(1954), 키 (key)(1956), 또는 초음파(ultrasonic) 입력 장치(1958)를 포함할 수 있다. 상기 터치 패널(1952)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 상기 터치 패널(1952)은 제어 회로를 더 포함할 수도 있다. 상기 터치 패널(1952)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.The
상기 (디지털) 펜 센서(1954)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 상기 키(1956)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 상기 초음파 입력 장치(1958)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(1901)에서 마이크(예: 마이크(1988))로 음파를 감지하여 데이터를 확인할 수 있다.The (digital)
상기 디스플레이(1960)는 패널(1962), 홀로그램 장치(1964), 또는 프로젝터(1966)를 포함할 수 있다. 상기 패널(1962)은, 도 1의 표시부(140)와 동일 또는 유사한 구성을 포함할 수 있다. 상기 패널(1962)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게 (wearable) 구현될 수 있다. 상기 패널(1962)은 상기 터치 패널(1952)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(1964)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(1966)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치(1901)의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 상기 디스플레이(1960)은 상기 패널(1962), 상기 홀로그램 장치(1964), 또는 프로젝터(1966)를 제어하기 위한 제어 회로를 더 포함할 수 있다.The
상기 인터페이스(1970)는, 예를 들면, HDMI(high-definition multimedia interface)(1972), USB(universal serial bus)(1974), 광 인터페이스(optical interface)(1976), 또는 D-sub(D-subminiature)(1978)를 포함할 수 있다. 상기 인터페이스(1970)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.The
상기 오디오 모듈(1980)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(1980)은, 예를 들면, 스피커(1982), 리시버(1984), 이어폰(1986), 또는 마이크(1988) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. The
상기 카메라 모듈(1991)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래쉬(flash)(예: LED 또는 xenon lamp)를 포함할 수 있다. 상기 카메라 모듈(1991)은, 도 1의 카메라부(130)와 동일 또는 유사한 구성을 포함할 수 있다. According to one embodiment, the
상기 전력 관리 모듈(1995)은, 예를 들면, 상기 전자 장치(1901)의 전력을 관리할 수 있다. 한 실시 예에 따르면, 상기 전력 관리 모듈(1995)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. 상기 PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 상기 배터리 게이지는, 예를 들면, 상기 배터리(1996)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 상기 배터리(1996)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.The
상기 인디케이터(1997)는 상기 전자 장치(1901) 혹은 그 일부(예: AP(1910))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1998)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 상기 전자 장치(1901)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어 플로우 (media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.The
상기 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품 (component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.Each of the above-described components of the electronic device may be composed of one or more components, and the name of the component may be changed according to the type of the electronic device. In various embodiments, the electronic device may be configured to include at least one of the components described above, with some components omitted or further comprising additional other components. In addition, some of the components of the electronic device according to various embodiments may be combined into one entity, so that the functions of the components before being combined can be performed in the same manner.
도 20은 다양한 실시 예에 따른 프로그램 모듈(2010)의 블록도(2000)이다. 한 실시 예에 따르면, 상기 프로그램 모듈(2010)은 전자 장치에 관련된 자원을 제어하는 운영 체제(operation system (OS)) 및/또는 운영 체제상에서 구동되는 다양한 애플리케이션을 포함할 수 있다. 상기 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.20 is a block diagram 2000 of a
프로그램 모듈(2010)은 커널(2020), 미들웨어(2030), API(application programming interface)(2060), 및/또는 애플리케이션(2070)을 포함할 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는 전자 장치상에 프리로드(preload) 되거나, 서버로부터 다운로드(download) 가능하다.The
상기 커널(2020)은, 예를 들면, 시스템 리소스 매니저(2021) 또는 디바이스 드라이버(2023)를 포함할 수 있다. 상기 시스템 리소스 매니저(2021)는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 상기 시스템 리소스 매니저(2021)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 상기 디바이스 드라이버(2023)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WIFI 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. The
상기 미들웨어(2030)는, 예를 들면, 상기 애플리케이션(2070)이 공통적으로 필요로 하는 기능을 제공하거나, 상기 애플리케이션(2070)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 상기 API(2060)를 통해 다양한 기능들을 상기 애플리케이션(2070)으로 제공할 수 있다. 한 실시 예에 따르면, 상기 미들웨어(2030)는 런타임 라이브러리(2035), 애플리케이션 매니저(application manager)(2041), 윈도우 매니저(window manager)(2042), 멀티미디어 매니저(multimedia manager)(2043), 리소스 매니저(resource manager)(2044), 파워 매니저(power manager)(2045), 데이터베이스 매니저(database manager)(2046), 패키지 매니저(package manager)(2047), 연결 매니저(connectivity manager)(2048), 통지 매니저(notification manager)(2049), 위치 매니저 (location manager)(2050), 그래픽 매니저(graphic manager)(2051), 또는 보안 매니저(security manager)(2052) 중 적어도 하나를 포함할 수 있다.The
상기 런타임 라이브러리(2035)는, 예를 들면, 상기 애플리케이션(2070)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 상기 런타임 라이브러리(2035)는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.The
상기 애플리케이션 매니저(2041)는, 예를 들면, 상기 애플리케이션(2070) 중 적어도 하나의 애플리케이션의 라이프 사이클(life cycle)을 관리할 수 있다. 상기 윈도우 매니저(2042)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 상기 멀티미디어 매니저(2043)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 상기 리소스 매니저(2044)는 상기 애플리케이션(2070) 중 적어도 어느 하나의 애플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.The
상기 파워 매니저(2045)는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 상기 데이터베이스 매니저(2046)는 상기 애플리케이션(2070) 중 적어도 하나의 애플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 상기 패키지 매니저(2047)는 패키지 파일의 형태로 배포되는 애플리케이션의 설치 또는 업데이트를 관리할 수 있다. The
상기 연결 매니저(2048)는, 예를 들면, WIFI 또는 블루투스 등의 무선 연결을 관리할 수 있다. 상기 통지 매니저(2049)는 도착 메시지, 약속, 근접성 알림 등의 사건 (event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 상기 위치 매니저(2050)는 전자 장치의 위치 정보를 관리할 수 있다. 상기 그래픽 매니저(2051)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 상기 보안 매니저(2052)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치 가 전화 기능을 포함한 경우, 상기 미들웨어(2030)는 상기 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.The
상기 미들웨어(2030)는 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 상기 미들웨어(2030)는 차별화된 기능을 제공하기 위해 운영 체제의 종류별로 특화된 모듈을 제공할 수 있다. 또한, 상기 미들웨어(2030)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.The
상기 API(2060)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼별로 두 개 이상의 API 셋을 제공할 수 있다.The
상기 애플리케이션(2070)은, 예를 들면, 홈(2071), 다이얼러(2072), SMS/MMS(2073), IM(instant message)(2074), 브라우저(2075), 카메라(2076), 알람(2077), 컨택트(2078), 음성 다이얼(2079), 이메일(2080), 달력(2081), 미디어 플레이어(2082), 앨범(2083), 또는 시계(2084), 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 제공할 수 있는 하나 이상의 애플리케이션을 포함할 수 있다.The
한 실시 예에 따르면, 상기 애플리케이션(2070)은 상기 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원하는 애플리케이션(이하, 설명의 편의 상, "정보 교환 애플리케이션")을 포함할 수 있다. 상기 정보 교환 애플리케이션은, 예를 들면, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다.According to one embodiment, the
예를 들면, 상기 알림 전달 애플리케이션은 상기 전자 장치의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션, 또는 환경 정보 애플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치로 전달하는 기능을 포함할 수 있다. 또한, 상기 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 애플리케이션은, 예를 들면, 상기 전자 장치와 통신하는 외부 전자 장치의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.For example, the notification delivery application may include a function of transmitting notification information generated by another application (e.g., SMS / MMS application, email application, healthcare application, or environment information application) of the electronic device to an external electronic device . In addition, the notification delivery application may receive notification information from, for example, an external electronic device and provide the notification information to the user. The device management application may, for example, control the operation of at least one function of the external electronic device communicating with the electronic device (e.g., turn-on / turn-off of the external electronic device itself (E.g., install, delete, or update) an application running on the external electronic device or a service (e.g., call service or message service) provided on the external electronic device.
한 실시 예에 따르면, 상기 애플리케이션(2070)은 상기 외부 전자 장치의 속성(예: 전자 장치의 속성으로서, 전자 장치의 종류가 모바일 의료 기기)에 따라 지정된 애플리케이션(예: 건강 관리 애플리케이션)을 포함할 수 있다. 한 실시 예에 따르면, 상기 애플리케이션(2070)은 외부 전자 장치로부터 수신된 애플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 상기 애플리케이션(2070)은 프리로드 애플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 애플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈(2010)의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다. According to one embodiment, the
다양한 실시 예에 따르면, 상기 프로그램 모듈(2010)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는, 예를 들면, 프로세서(예: AP(1910))에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그램 모듈(2010)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.According to various embodiments, at least some of the
본 문서에서 사용된 용어 "모듈" 또는 "기능부"는, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈" 또는 "기능부"는, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈" 또는 "기능부"는, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈" 또는 "기능부"는 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈" 또는 "기능부"는, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.The term "module" or "function, " as used herein, may refer to a unit that includes one or a combination of two or more of, for example, hardware, software or firmware. The term "module" or "functional part" is used interchangeably with terms such as, for example, unit, logic, logical block, component, ). A "module" or "function" may be a minimum unit or a part of an integrally constructed component. A "module" may be a minimum unit or a portion thereof that performs one or more functions. "Modules" or "functional parts" may be implemented mechanically or electronically. For example, a "module" or "function" may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs) or programmable logic arrays (FPGAs) -logic device).
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 프로세서에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 저장부(160)가 될 수 있다. At least a portion of a device (e.g., modules or functions thereof) or a method (e.g., operations) according to various embodiments may include, for example, computer-readable storage media in the form of program modules, As shown in FIG. The instructions, when executed by the processor, may cause the one or more processors to perform functions corresponding to the instructions. The computer-readable storage medium may be, for example, the
상기 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시 예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.The computer readable recording medium may be a hard disk, a floppy disk, a magnetic media (e.g., a magnetic tape), an optical media (e.g., a compact disc read only memory (CD-ROM) but are not limited to, digital versatile discs, magneto-optical media such as floptical discs, hardware devices such as read only memory (ROM), random access memory (RAM) Etc.), etc. The program instructions may also include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter, etc. The above- May be configured to operate as one or more software modules to perform the operations of the various embodiments, and vice versa.
다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱 (heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Modules or program modules according to various embodiments may include at least one or more of the elements described above, some of which may be omitted, or may further include additional other elements. Operations performed by modules, program modules, or other components in accordance with various embodiments may be performed in a sequential, parallel, iterative, or heuristic manner. Also, some operations may be performed in a different order, omitted, or other operations may be added.
다양한 실시 예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 전자 장치에서의 시선 판단 방법에 있어서, 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작; 상기 검출된 반사점의 패턴을 판단하는 동작; 및 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함할 수 있다.According to various embodiments, there is provided a storage medium storing instructions which, when executed by at least one processor, cause the at least one processor to be configured to perform at least one operation, A method of determining a line of sight in an electronic device, the method comprising: detecting at least one reflection point on a cornea generated by a plurality of light sources; Determining a pattern of the detected reflection points; And determining a line of sight by a mapping function corresponding to the number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane.
그리고 본 명세서와 도면에 발명된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시 예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시 예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 발명된 실시 예들 이외에도 본 발명의 다양한 실시 예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시 예의 범위에 포함되는 것으로 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. And the like. Accordingly, the scope of various embodiments of the present invention should be construed as being included in the scope of various embodiments of the present invention without departing from the scope of the present invention, all changes or modifications derived from the technical idea of various embodiments of the present invention .
110 : 제어부 111 : 캘리브레이션 처리부
112 : 매핑 함수 결정부 113 : 반사점 검출부
114 : 시선 판단부 120 : 광원부
130 : 카메라부 140 : 표시부
150 : 입력부 160 : 저장부
161 : 캘리브레이션 정보 162 : 매핑 함수 정보
163 : 시선 정보110: control unit 111: calibration processing unit
112: mapping function determination unit 113: reflection point detection unit
114: eye gaze determination unit 120:
130: camera unit 140: display unit
150: input unit 160:
161: Calibration information 162: Mapping function information
163: sight line information
Claims (20)
상기 촬영된 이미지로부터 복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하고, 이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 검출한 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 프로세서;를 포함하는, 전자 장치.
A camera unit for photographing an image; And
A mapping function for detecting at least one reflection point on the cornea generated by the plurality of light sources from the photographed image and for mapping the detected number of reflection points among a plurality of mapping functions for mapping from an image plane to a screen plane, And a processor for determining a line of sight by the electronic device.
상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는, 전자 장치.
2. The apparatus of claim 1,
And determines a line of sight by a mapping function corresponding to the detected pattern of reflection points.
상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하고, 상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는, 전자 장치.
3. The apparatus of claim 2,
Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources and determining the mapping function for each light source pattern among the plurality of light source patterns.
상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장되는, 전자 장치.
3. The method of claim 2,
Wherein the plurality of light source patterns are mapped to encoded data and stored.
상기 복수의 광원 패턴들은 2진 코드로 부호화되는, 전자 장치.
5. The method of claim 4,
Wherein the plurality of light source patterns are encoded in a binary code.
상기 광원은 IR(infrared) LED(light emitting diode)를 포함하는, 전자 장치.
The method according to claim 1,
Wherein the light source comprises an infrared (LED) light emitting diode.
적외선 카메라를 포함하는, 전자 장치.
The camera system according to claim 1,
An electronic device, comprising an infrared camera.
상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하고, 상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는, 전자 장치.
2. The apparatus of claim 1,
Transforming the imaginary normalized plane from the image plane, and mapping the virtual normalized plane to the screen plane.
상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현되는, 전자 장치.
9. The method of claim 8,
Wherein the mapping function for mapping from the virtual normalized plane to the screen plane is represented by a polynomial function.
시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는, 전자 장치.
2. The apparatus of claim 1,
And determines a polynomial mapping function for each of the plurality of detected points of the detected calibration points during the calibration operation for gaze determination.
복수의 광원들에 의해 생성된 각막 상에서의 적어도 하나의 반사점을 검출하는 동작;
상기 검출된 반사점의 패턴을 판단하는 동작; 및
이미지 평면으로부터 스크린 평면으로 매핑하기 위한 복수의 매핑 함수들 중에서 상기 반사점의 개수에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 포함하는, 방법.
A method of determining a line of sight in an electronic device,
Detecting at least one reflex point on the cornea generated by the plurality of light sources;
Determining a pattern of the detected reflection points; And
Determining a line of sight by a mapping function corresponding to the number of reflection points from among a plurality of mapping functions for mapping from an image plane to a screen plane.
상기 검출한 반사점의 패턴에 대응하는 매핑 함수에 의해 시선을 판단하는 동작;을 더 포함하는, 방법.
12. The method of claim 11,
And determining a line of sight by a mapping function corresponding to the detected pattern of reflection points.
상기 복수의 광원들 중 선택된 적어도 하나의 광원을 조합하여 복수의 광원 패턴들을 결정하는 동작; 및
상기 복수의 광원 패턴들 중 각각의 광원 패턴에 대해 상기 매핑 함수를 결정하는 동작;을 더 포함하는, 방법.
13. The method of claim 12,
Determining a plurality of light source patterns by combining at least one light source selected from the plurality of light sources; And
And determining the mapping function for each light source pattern of the plurality of light source patterns.
상기 복수의 광원 패턴들은 부호화된 데이터로 매핑하여 저장되는, 방법.
13. The method of claim 12,
Wherein the plurality of light source patterns are mapped to coded data and stored.
상기 복수의 광원 패턴들은 2진 코드로 부호화되는, 방법.
15. The method of claim 14,
Wherein the plurality of light source patterns are encoded in a binary code.
상기 광원은 IR(infrared) LED(light emitting diode)를 포함하는, 방법.
12. The method of claim 11,
Wherein the light source comprises an infrared (LED) light emitting diode.
적외선 카메라에 의해 안구 이미지를 촬영하는 동작;을 더 포함하는, 방법.
12. The method of claim 11,
Further comprising: capturing an eye image by an infrared camera.
상기 이미지 평면으로부터 가상의 정규화된 평면으로 변환하는 동작; 및
상기 가상의 정규화된 평면을 상기 스크린 평면으로 매핑하는 동작;을 포함하는, 방법.
The method as claimed in claim 11,
Converting the image plane to a virtual normalized plane; And
And mapping the virtual normalized plane to the screen plane.
상기 가상의 정규화된 평면에서 상기 스크린 평면으로 매핑하기 위한 매핑 함수는 다항 함수로 표현되는, 방법.
19. The method of claim 18,
Wherein the mapping function for mapping from the hypothetical normalized plane to the screen plane is represented by a polynomial function.
시선 판단을 위한 캘리브레이션 동작 중, 검출된 복수의 반사점들에 대한 각 패턴들에 대해 다항의 매핑 함수를 결정하는 동작;을 더 포함하는, 방법.12. The method of claim 11,
Determining a polynomial mapping function for each of the plurality of detected points of the plurality of detected points during a calibration operation for visual determination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140159084A KR20160057888A (en) | 2014-11-14 | 2014-11-14 | Electronic device and method for determining a gaze of a user in electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140159084A KR20160057888A (en) | 2014-11-14 | 2014-11-14 | Electronic device and method for determining a gaze of a user in electronic device |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160057888A true KR20160057888A (en) | 2016-05-24 |
Family
ID=56113978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140159084A KR20160057888A (en) | 2014-11-14 | 2014-11-14 | Electronic device and method for determining a gaze of a user in electronic device |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160057888A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190027081A (en) * | 2017-09-06 | 2019-03-14 | 삼성전자주식회사 | Electronic apparatus, method for controlling thereof and the computer readable recording medium |
CN112869701A (en) * | 2021-01-11 | 2021-06-01 | 上海微创医疗机器人(集团)股份有限公司 | Sight line detection method, surgical robot system, control method, and storage medium |
WO2022158795A1 (en) * | 2021-01-21 | 2022-07-28 | 삼성전자 주식회사 | Augmented reality device and method for detecting user's gaze |
-
2014
- 2014-11-14 KR KR1020140159084A patent/KR20160057888A/en active Search and Examination
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190027081A (en) * | 2017-09-06 | 2019-03-14 | 삼성전자주식회사 | Electronic apparatus, method for controlling thereof and the computer readable recording medium |
CN112869701A (en) * | 2021-01-11 | 2021-06-01 | 上海微创医疗机器人(集团)股份有限公司 | Sight line detection method, surgical robot system, control method, and storage medium |
CN112869701B (en) * | 2021-01-11 | 2024-03-29 | 上海微创医疗机器人(集团)股份有限公司 | Sight line detection method, surgical robot system, control method, and storage medium |
WO2022158795A1 (en) * | 2021-01-21 | 2022-07-28 | 삼성전자 주식회사 | Augmented reality device and method for detecting user's gaze |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102344045B1 (en) | Electronic apparatus for displaying screen and method for controlling thereof | |
CN107665485B (en) | Electronic device and computer-readable recording medium for displaying graphic objects | |
KR20180106527A (en) | Electronic device and method for identifying falsification of biometric information | |
KR102548199B1 (en) | Electronic device and method for tracking gaze in the electronic device | |
KR20160091114A (en) | Apparatus and method for iris recognition using display information | |
CN110325993B (en) | Electronic device for performing authentication by using a plurality of biometric sensors and method of operating the same | |
KR20160071139A (en) | Method for calibrating a gaze and electronic device thereof | |
KR20160125142A (en) | Method and apparatus for sensing fingerprints | |
KR102365412B1 (en) | Electronic device and method for authenticating finger print | |
KR20160126802A (en) | Measuring method of human body information and electronic device thereof | |
KR20170097884A (en) | Method for processing image and electronic device thereof | |
KR20180098058A (en) | Method and electronic device for identifying position of sensor using pixels of display | |
KR20160124536A (en) | Method and electronic apparatus for providing user interface | |
KR20160061053A (en) | An electronic apparatus and a method for displaying a screen of the electronic apparatus | |
EP3287924A1 (en) | Electronic device and method for measuring heart rate based on infrared rays sensor using the same | |
KR20180089088A (en) | Electronic device and a method for controlling a biometric sensor associated with a display using the same | |
KR20170014407A (en) | Apparatus and method for controlling a security of electronic device | |
KR20190007619A (en) | Electronic device and method for providing digerstibility on eaten food | |
KR102547054B1 (en) | Electronic device and method for controlling activation of camera module | |
KR102355759B1 (en) | Electronic apparatus for determining position of user and method for controlling thereof | |
US20190349562A1 (en) | Method for providing interface for acquiring image of subject, and electronic device | |
KR20160042629A (en) | Electronic device and method for measuring a velocity in the electronic device | |
KR20170081925A (en) | Method for storing image and electronic device thereof | |
KR20170100281A (en) | Electronic device for determining position and method for operating thereof | |
KR20160057888A (en) | Electronic device and method for determining a gaze of a user in electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |