KR20210125465A - Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device - Google Patents

Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device Download PDF

Info

Publication number
KR20210125465A
KR20210125465A KR1020210132884A KR20210132884A KR20210125465A KR 20210125465 A KR20210125465 A KR 20210125465A KR 1020210132884 A KR1020210132884 A KR 1020210132884A KR 20210132884 A KR20210132884 A KR 20210132884A KR 20210125465 A KR20210125465 A KR 20210125465A
Authority
KR
South Korea
Prior art keywords
electronic device
user
image
information
visibility
Prior art date
Application number
KR1020210132884A
Other languages
Korean (ko)
Other versions
KR102473669B1 (en
Inventor
김준우
김창용
김명식
한익상
김진호
오윤제
정선태
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200120590A external-priority patent/KR102312601B1/en
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210132884A priority Critical patent/KR102473669B1/en
Publication of KR20210125465A publication Critical patent/KR20210125465A/en
Application granted granted Critical
Publication of KR102473669B1 publication Critical patent/KR102473669B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

According to an aspect of the present invention, provided is a visibility improvement method using eye tracking that comprises the processes of: detecting the eye of a user using a camera; identifying an object of interest pointed by the eye among at least one object viewed through the display unit of an electronic device; and displaying an image corresponding to the object of interest and having a higher visibility than the object of interest through the display unit.

Description

시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치{VISIBILITY IMPROVEMENT METHOD BASED ON EYE TRACKING, MACHINE-READABLE STORAGE MEDIUM AND ELECTRONIC DEVICE}A method of improving visibility using eye tracking, a storage medium, and an electronic device

본 발명은 카메라에 의해 촬영된 이미지를 처리하는 방법에 관한 것으로서, 특히 사용자의 시선을 고려한 이미지 처리 방법에 관한 것이다. The present invention relates to a method of processing an image captured by a camera, and more particularly, to an image processing method in consideration of a user's gaze.

종래에, 카메라를 이용한 시선 추적 기술의 발달로 사람의 시선을 추적하여 화면상의 주목된 물체를 확대 및 축소하거나 관련 정보를 물체 주변에 표시하는 등, 사람의 관심사에 맞춰 정보를 제공하는 기술이 개시되어 있다.Conventionally, with the development of eye tracking technology using a camera, a technology for providing information according to a person's interest, such as enlarging and reducing an object of interest on a screen by tracking a person's gaze, or displaying related information around an object, has been disclosed. has been

예를 들어, 사용자의 시선을 추적하여, 화면상의 특정한 부분을 주목하는 경우에, 상기 특정 부분을 확대 또는 축소하는 기술이 있다. For example, there is a technique for enlarging or reducing a specific part of a screen by tracking a user's gaze and paying attention to a specific part on the screen.

또한 예를 들어, 야구장에서 선수들을 바라보면 각 선수들에 대한 정보가 표시되거나, 유적지 등에서 유적에 대한 정보를 표시하는 것이 가능하다. Also, for example, when players are viewed at a baseball field, information on each player may be displayed, or information on remains in a historic site may be displayed.

종래 기술에 있어서, 사용자가 특정한 영역을 주목하는 경우에 특정 영역의 확대 및 관련 텍스트 정보의 표시는 사용자에게 보다 상세한 정보를 제공하는데 목적이 있지만, 종래 기술의 경우 화면상의 이미지, 또는 얼굴에 부착한 카메라 등을 통해 사용자가 바라보고 있는 실제 환경에서 촬영한 이미지가 저해상도이거나, 주변 광량 부족으로 어둡거나 노출이 부족하여 선명하지 않을 때, 간판 등 보고자 하는 물체까지의 거리가 멀어 확대해도 사용자가 원하는 시각 정보를 제공하기에는 어려움이 있다. In the prior art, when a user pays attention to a specific area, enlargement of the specific area and display of related text information are aimed at providing more detailed information to the user. When the image taken in the real environment that the user is looking through through the camera is of low resolution, is dark due to insufficient ambient light, or is not clear due to insufficient exposure, the user wants the desired view even if enlarged because the distance to the object to be viewed, such as a signboard, is far. It is difficult to provide information.

또한, 텍스트로 대상 물체에 대한 정보를 표시하는 기술의 경우에는 시각 정보에서는 드러나지 않는 상세한 정보를 제공할 수 있는 장점이 있지만 실제 대상의 모습이나 색상 등 자세한 시각 정보는 제공하지 못하는 한계가 있다. In addition, in the case of a technology for displaying information about a target object in text, there is an advantage of providing detailed information that is not revealed in the visual information, but there is a limitation in that detailed visual information such as the shape or color of the actual object cannot be provided.

본 발명의 특정 실시 예들의 목적은 종래기술과 관련된 문제점들 및/또는 단점들 중의 적어도 하나를 적어도 부분적으로 해결, 경감 또는 제거하는 것이다.It is an object of certain embodiments of the present invention to at least partially solve, alleviate or eliminate at least one of the problems and/or disadvantages associated with the prior art.

본 발명의 일 목적은, 기존의 이미지 확대 및 텍스트 정보 표시의 정보 제공 방식을 개선하기 위한 것으로, 시선을 추적하여 주목하는 대상을 판별한 후 이미지를 재처리하거나 관련된 이미지 등으로 대체하여 보다 시인성이 높은 이미지를 제공함으로써, 사용자가 편안하게 대상을 식별할 수 있고 사용자에게 보다 풍부한 시각 정보를 제공함에 있다. One object of the present invention is to improve the information provision method of the existing image enlargement and text information display, and after determining an object of interest by tracking the gaze, the image is reprocessed or replaced with a related image to increase visibility By providing a high image, a user can comfortably identify an object, and more abundant visual information is provided to the user.

본 발명의 일 측면에 따른 시선 추적을 이용한 시인성 개선 방법은, 카메라를 이용하여 사용자의 시선을 검출하는 과정과; 전자 장치의 디스플레이 유닛을 통해 보이는 적어도 하나의 객체 또는 투명한 디스플레이 등에 사용자의 시선의 연장선상에 있는 객체 중에서 상기 사용자의 시선이 가리키는 주목 대상을 확인하는 과정과; 상기 주목 대상에 대응하며 상기 주목 대상보다 시인성이 높은 이미지를 상기 디스플레이 유닛을 통해 표시하는 과정을 포함한다.According to an aspect of the present invention, there is provided a method for improving visibility using eye tracking, the method comprising: detecting a user's gaze using a camera; identifying an object of interest indicated by the user's gaze from among at least one object visible through a display unit of the electronic device or an object on the extension line of the user's gaze on a transparent display; and displaying an image corresponding to the target of interest and having a higher visibility than the target of interest through the display unit.

본 발명의 다른 측면에 따른 전자 장치는, 사용자의 눈을 촬영하는 카메라와; 적어도 하나의 객체를 표시하는 디스플레이 유닛과; 상기 촬영된 사용자의 눈에서 시선을 검출하고, 상기 적어도 하나의 객체 중에서 상기 사용자의 시선이 가리키는 주목 대상을 확인하고, 상기 주목 대상에 대응하며 상기 주목 대상보다 시인성이 높은 이미지를 상기 디스플레이 유닛을 통해 표시하는 제어부를 포함한다.According to another aspect of the present invention, an electronic device includes: a camera for photographing a user's eyes; a display unit for displaying at least one object; Detects a gaze from the photographed user's eye, identifies a target of interest pointed to by the user's gaze among the at least one object, and displays an image corresponding to the target of interest and having higher visibility than the target through the display unit A control unit for displaying is included.

본 발명에 따르면, 시선을 추적하여 주목하는 대상을 판별한 후 이미지를 재처리하거나 관련된 이미지 등으로 대체하여 보다 시인성이 높은 이미지를 제공함으로써, 사용자가 편안하게 대상을 식별할 수 있고 사용자에게 보다 풍부한 시각 정보를 제공할 수 있다.According to the present invention, after determining an object of interest by tracking the gaze, the image is reprocessed or replaced with a related image to provide an image with higher visibility, so that the user can comfortably identify the object and provide the user with a richer image. Visual information can be provided.

도 1은 본 발명의 제1 예에 따른 제1 전자 장치를 나타내는 개략적인 블록도,
도 2는 본 발명의 제1 예에 따른 제1 전자 장치의 전면 사시도를 나타낸 도면,
도 3은 본 발명의 제1 예에 따른 제1 전자 장치의 후면 사시도를 나타낸 도면,
도 4는 본 발명의 제2 예에 따른 제2 전자 장치를 외측에서 본 사시도,
도 5는 제2 전자 장치를 내측에서 본 사시도,
도 6은 제2 전자 장치의 회로 구성을 나타내는 도면,
도 7은 본 발명의 제1 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도,
도 8은 사용자의 눈을 나타내는 도면,
도 9는 얼굴 표정에 근거한 주목 여부의 판단 방법을 설명하기 위한 도면,
도 10은 본 발명의 제1 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면,
도 11은 본 발명의 제2 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면,
도 12는 본 발명의 제3 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면,
도 13은 본 발명의 제1 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면,
도 14는 본 발명의 제2 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면,
도 15는 본 발명의 제3 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면,
도 16은 본 발명의 제4 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면,
도 17은 서버의 구성을 나타내는 도면,
도 18 및 도 19는 본 발명의 제5 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면들,
도 20은 본 발명의 제6 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면,
도 21은 본 발명의 일 예에 따른 시인성 높은 이미지의 표시를 중단하는 방법을 설명하기 위한 도면,
도 22는 본 발명의 제2 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도,
도 23은 본 발명의 제3 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도,
도 24는 주목 대상의 변경을 설명하기 위한 도면.
1 is a schematic block diagram showing a first electronic device according to a first example of the present invention;
2 is a front perspective view of a first electronic device according to a first example of the present invention;
3 is a rear perspective view of a first electronic device according to a first example of the present invention;
4 is a perspective view of a second electronic device according to a second example of the present invention viewed from the outside;
5 is a perspective view of a second electronic device viewed from the inside;
6 is a diagram showing a circuit configuration of a second electronic device;
7 is a flowchart illustrating a method for improving visibility using eye tracking according to a first example of the present invention;
8 is a view showing the user's eyes;
9 is a view for explaining a method of determining whether attention is paid based on a facial expression;
10 is a view for explaining a method for detecting an object of interest according to a first example of the present invention;
11 is a view for explaining a method for detecting an object of interest according to a second example of the present invention;
12 is a view for explaining a method for detecting an object of interest according to a third example of the present invention;
13 is a view for explaining a method of displaying an image with high visibility according to a first example of the present invention;
14 is a view for explaining a method of displaying an image with high visibility according to a second example of the present invention;
15 is a view for explaining a method of displaying an image with high visibility according to a third example of the present invention;
16 is a view for explaining a method of displaying an image with high visibility according to a fourth example of the present invention;
17 is a diagram showing the configuration of a server;
18 and 19 are diagrams for explaining a method of displaying an image with high visibility according to a fifth example of the present invention;
20 is a view for explaining a method of displaying an image with high visibility according to a sixth example of the present invention;
21 is a view for explaining a method of stopping the display of an image with high visibility according to an example of the present invention;
22 is a flowchart illustrating a method for improving visibility using eye tracking according to a second example of the present invention;
23 is a flowchart illustrating a method for improving visibility using eye tracking according to a third example of the present invention;
Fig. 24 is a diagram for explaining a change of an object of interest;

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하여 상세하게 설명한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the present invention can have various changes and can have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail. However, this is not intended to limit the present invention to specific embodiments, and it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms including an ordinal number, such as first, second, etc., may be used to describe various elements, but the elements are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

본 발명에서 전자 장치는 임의의 장치일 수 있으며, 전자 장치는 휴대 단말, 이동 단말, 통신 단말, 휴대용 통신 단말, 휴대용 이동 단말 등으로 칭할 수 있다. In the present invention, the electronic device may be any device, and the electronic device may be referred to as a portable terminal, a mobile terminal, a communication terminal, a portable communication terminal, a portable mobile terminal, and the like.

예를 들어, 전자 장치는 스마트폰, 휴대폰, 게임기, TV, 디스플레이 장치, 차량용 헤드 유닛, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) 컴퓨터, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등일 수 있다. 전자 장치는 무선 통신 기능을 갖는 포켓 사이즈의 휴대용 통신 단말이나 부착형 통신 단말로서 구현될 수 있다. 또한, 전자 장치는 플렉서블 장치, 플렉서블 디스플레이 장치, 투명 디스플레이 장치 등일 수 있다. For example, the electronic device may be a smartphone, mobile phone, game console, TV, display device, in-vehicle head unit, notebook computer, laptop computer, tablet computer, personal media player (PMP), personal digital assistants (PDA), etc. have. The electronic device may be implemented as a pocket-sized portable communication terminal or an attachable communication terminal having a wireless communication function. Also, the electronic device may be a flexible device, a flexible display device, a transparent display device, or the like.

본 발명의 제1 예에 따른 전자 장치는 휴대폰이며, 이러한 전자 장치의 대표적인 구성에서 일부 구성 소자는 필요에 따라 생략되거나 변경될 수 있다.The electronic device according to the first example of the present invention is a mobile phone, and in a typical configuration of such an electronic device, some constituent elements may be omitted or changed as necessary.

도 1은 본 발명의 제1 예에 따른 제1 전자 장치를 나타내는 개략적인 블록도이고, 도 2는 본 발명의 제1 예에 따른 제1 전자 장치의 전면 사시도를 나타낸 도면이고, 도 3은 본 발명의 제1 예에 따른 제1 전자 장치의 후면 사시도를 나타낸 도면이다.1 is a schematic block diagram illustrating a first electronic device according to a first example of the present invention, FIG. 2 is a front perspective view of a first electronic device according to a first example of the present invention, and FIG. 3 is a view It is a view showing a rear perspective view of a first electronic device according to a first example of the present invention.

도 1을 참조하면, 제1 전자 장치(100)는 제1 통신 모듈(120), 커넥터 등을 통해 외부 전자 장치(도시되지 아니함)와 연결될 수 있다. 외부 전자 장치는 무선으로 연결 가능한 블루투스 통신 장치, NFC(Near Field Communication) 장치, 와이파이 다이렉트(WiFi Direct) 통신 장치, 무선 액세스 포인트(AP, Access Point)를 포함할 수 있다. 그리고, 제1 전자 장치(100)는 유선 또는 무선을 이용하여 다른 휴대 단말 또는 전자 장치, 예를 들어, 휴대폰, 스마트폰, 태블릿 PC, 데스크탑 PC 및 서버 중의 하나와 연결될 수 있다. Referring to FIG. 1 , a first electronic device 100 may be connected to an external electronic device (not shown) through a first communication module 120 , a connector, or the like. The external electronic device may include a wirelessly connectable Bluetooth communication device, a near field communication (NFC) device, a WiFi Direct communication device, and a wireless access point (AP). In addition, the first electronic device 100 may be connected to one of another portable terminal or electronic device, for example, a mobile phone, a smart phone, a tablet PC, a desktop PC, and a server using a wired or wireless connection.

도 1을 참조하면, 제1 전자 장치(100)는 적어도 하나의 터치 스크린(190)을 포함한다. 또한, 제1 전자 장치(100)는 제1 제어부(110), 제1 통신 모듈(120), 카메라 모듈(150), 제1 입/출력 모듈(160), 제1 센서 모듈(170) 및 제1 저장부(175)를 포함한다. Referring to FIG. 1 , the first electronic device 100 includes at least one touch screen 190 . In addition, the first electronic device 100 includes a first control unit 110 , a first communication module 120 , a camera module 150 , a first input/output module 160 , a first sensor module 170 and a second 1 includes a storage unit 175 .

제1 제어부(110)는 CPU(111), 제1 전자 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 112) 및 제1 전자 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 제1 전자 장치(100)에서 수행되는 작업을 위한 기억 영역으로 사용되는 램(RAM, 113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어 또는 쿼드 코어를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(bus)를 통해 상호 연결될 수 있다. The first control unit 110 controls the CPU 111 , a ROM 112 in which a control program for controlling the first electronic device 100 is stored, and signals or data input from the outside of the first electronic device 100 . The RAM 113 may be stored or used as a storage area for a job performed by the first electronic device 100 . The CPU 111 may include a single core, a dual core, a triple core, or a quad core. The CPU 111 , the ROM 112 , and the RAM 113 may be interconnected through an internal bus.

또한, 제1 제어부(110)는 제1 통신 모듈(120), 카메라 모듈(150), 제1 입/출력 모듈(160), 제1 센서 모듈(170), 제1 저장부(175) 및 터치 스크린(190)을 제어할 수 있다. In addition, the first control unit 110 includes the first communication module 120 , the camera module 150 , the first input/output module 160 , the first sensor module 170 , the first storage unit 175 and the touch The screen 190 can be controlled.

제1 제어부(110)는 터치 스크린(190) 상에 복수의 객체 또는 아이템이 표시된 상태에서 사용자의 손가락 등의 터치 가능한 사용자 입력 수단이 어느 하나의 객체를 터치하거나, 그에 접근하거나, 그에 근접하게 위치함에 따른 사용자 입력을 감지하고, 사용자 입력이 발생한 터치 스크린(190) 상의 위치에 대응하는 객체를 식별한다. 터치 스크린(190)을 통한 사용자 입력은 객체를 직접 터치하는 직접 터치 입력과, 미리 설정된 인식 거리 이내로 객체에 접근하지만 객체를 직접 터치하지 않는 간접 터치 입력인 호버링 입력 중의 하나를 포함한다. 본 발명에서 사용자 입력은, 터치 스크린(190)을 통한 사용자 입력 외에, 카메라 모듈(150)을 통한 제스처 입력, 버튼(161)을 통한 스위치/버튼 입력, 마이크(162)를 통한 음성 입력 등을 포함한다. In a state where a plurality of objects or items are displayed on the touch screen 190 , the first control unit 110 may be configured such that a touchable user input means such as a user's finger touches, approaches, or proximates any one object. The user input is sensed according to the user input, and an object corresponding to a location on the touch screen 190 where the user input is generated is identified. The user input through the touch screen 190 includes one of a direct touch input for directly touching an object and a hovering input, which is an indirect touch input that approaches the object within a preset recognition distance but does not directly touch the object. In the present invention, the user input includes, in addition to the user input through the touch screen 190 , a gesture input through the camera module 150 , a switch/button input through the button 161 , a voice input through the microphone 162 , and the like. do.

객체 또는 아이템(또는 기능 아이템)은 제1 전자 장치(100)의 터치 스크린(190) 상에 표시되거나, 표시될 수 있는 것으로서, 예를 들어, 이미지, 애플리케이션, 메뉴, 문서, 위젯, 사진, 동영상, 이메일, SMS 메시지 및 MMS 메시지 중 적어도 하나를 나타내며, 사용자 입력 수단에 의해 선택, 실행, 삭제, 취소, 저장 및 변경될 수 있다. 이러한 아이템은 버튼, 아이콘(또는 단축 아이콘), 썸네일 이미지 또는 단말에서 적어도 하나의 객체를 저장하고 있는 폴더를 포괄하는 의미로도 사용될 수 있다. 또한, 이러한 아이템은 이미지, 텍스트 등의 형태로 표시될 수 있다.The object or item (or function item) is displayed or can be displayed on the touch screen 190 of the first electronic device 100 , for example, an image, an application, a menu, a document, a widget, a photo, or a video. , an email, an SMS message, and an MMS message, and may be selected, executed, deleted, canceled, stored, and changed by a user input means. Such an item may also be used to encompass a button, an icon (or a shortcut icon), a thumbnail image, or a folder storing at least one object in the terminal. In addition, these items may be displayed in the form of images, text, or the like.

단축 아이콘은 각각의 애플리케이션 또는 제1 전자 장치(100)에서 기본적으로 제공되는 통화, 연락처, 메뉴 등의 빠른 실행을 위해 제1 전자 장치(100)의 터치 스크린(190) 상에 표시되는 이미지로서, 이를 실행하기 위한 명령 또는 선택이 입력되면 해당 애플리케이션을 실행한다.The shortcut icon is an image displayed on the touch screen 190 of the first electronic device 100 for quick execution of calls, contacts, menus, etc. basically provided in each application or the first electronic device 100, When a command or selection to execute it is entered, the corresponding application is executed.

제1 제어부(110)는 미리 설정된 아이템 또는 객체에 대해, 또는 미리 설정된 방식에 따라 사용자 입력 이벤트가 발생되면, 사용자 입력 이벤트에 대응하는 미리 설정된 프로그램 동작을 수행한다. When a user input event is generated for a preset item or object or according to a preset method, the first controller 110 performs a preset program operation corresponding to the user input event.

제1 전자 장치(100)는 성능에 따라 이동 통신 모듈(121), 무선랜 모듈(131), 및 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. The first electronic device 100 may include at least one of a mobile communication module 121 , a wireless LAN module 131 , and a short-range communication module 132 according to performance.

이동 통신 모듈(121)은 제1 제어부(110)의 제어에 따라 적어도 하나-하나 또는 복수-의 안테나(도시되지 아니함)를 이용하여 이동 통신을 통해 제1 전자 장치(100)가 외부 전자 장치와 연결되도록 할 수 있다. 이동 통신 모듈(121)은 제1 전자 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 아니함), 스마트폰(도시되지 아니함), 태블릿 PC 또는 다른 전자 장치(도시되지 아니함)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS)를 위한 무선 신호를 통신사에 의해 제공되는 통신망을 거쳐 송/수신한다. The mobile communication module 121 enables the first electronic device 100 to communicate with an external electronic device through mobile communication using at least one-one or a plurality of antennas (not shown) under the control of the first controller 110 . can be made to connect. The mobile communication module 121 performs a voice call with a mobile phone (not shown), a smart phone (not shown), a tablet PC, or another electronic device (not shown) having a phone number input to the first electronic device 100 . , transmits/receives wireless signals for video calls, text messages (SMS) or multimedia messages (MMS) through a communication network provided by a telecommunication company.

서브 통신 모듈(130)은 무선랜 모듈(131)과 근거리 통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리 통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리 통신 모듈(132)을 모두 포함할 수 있다. 서브 통신 모듈(130)은 복수의 근거리 통신 모듈을 포함할 수도 있다.The sub communication module 130 may include at least one of a wireless LAN module 131 and a short-range communication module 132 . For example, only the wireless LAN module 131 may be included, only the short-range communication module 132 may be included, or both the wireless LAN module 131 and the short-range communication module 132 may be included. The sub communication module 130 may include a plurality of short-range communication modules.

무선랜 모듈(131)은 제1 제어부(110)의 제어에 따라 무선 액세스 포인트(AP, access point)(도시되지 아니함)가 설치된 장소에서 인터넷에 연결될 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격(IEEE802.11x)을 지원한다. 근거리 통신 모듈(132)은 제1 제어부(110)의 제어에 따라 제1 전자 장치(100)과 외부 전자 장치 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신 방식은 블루투스(bluetooth), 적외선 통신(IrDA, infrared data association), 와이파이 다이렉트(WiFi-Direct) 통신, NFC(Near Field Communication) 등이 포함될 수 있다. The wireless LAN module 131 may be connected to the Internet at a location where a wireless access point (AP) (not shown) is installed under the control of the first controller 110 . The wireless LAN module 131 supports the wireless LAN standard (IEEE802.11x) of the American Institute of Electrical and Electronics Engineers (IEEE). The short-range communication module 132 may perform wireless short-range communication between the first electronic device 100 and an external electronic device under the control of the first controller 110 . The short-distance communication method may include Bluetooth (bluetooth), infrared data association (IrDA), WiFi-Direct communication, near field communication (NFC), and the like.

카메라 모듈(150)은 제1 제어부(110)의 제어에 따라 정지 이미지 또는 동영상을 촬영하는 제1 카메라(151) 및 제2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 카메라 모듈(150)은 피사체를 촬영하기 위해 필요한 보조 광원을 제공하는 플래시(153)를 더 포함할 수 있다. 제1 카메라(151)는 상기 제1 전자 장치(100) 전면에 배치되고, 제2 카메라(152)는 상기 제1 전자 장치(100)의 후면에 배치될 수 있다. The camera module 150 may include at least one of a first camera 151 and a second camera 152 for capturing still images or moving images under the control of the first controller 110 . In addition, the camera module 150 may further include a flash 153 that provides an auxiliary light source necessary for photographing a subject. The first camera 151 may be disposed on the front side of the first electronic device 100 , and the second camera 152 may be disposed on the back side of the first electronic device 100 .

제1 및 제2 카메라(151, 152)는 각각 렌즈계, 이미지 센서 등을 포함할 수 있다. 제1 및 제2 카메라(151, 152)는 각각 렌즈계를 통해 입력되는(또는 촬영되는) 광신호를 전기적인 이미지 신호(또는 디지털 이미지)로 변환하여 제1 제어부(110)로 출력하고, 사용자는 이러한 제1 및 제2 카메라(151, 152)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다.The first and second cameras 151 and 152 may each include a lens system, an image sensor, and the like. The first and second cameras 151 and 152 each convert an optical signal input (or photographed) through a lens system into an electrical image signal (or digital image) and output it to the first controller 110 , and the user A moving image or a still image may be captured through the first and second cameras 151 and 152 .

제1 입/출력 모듈(160)은 적어도 하나의 버튼(161), 적어도 하나의 마이크(162), 적어도 하나의 스피커(163), 커넥터 중 적어도 하나를 포함할 수 있다. The first input/output module 160 may include at least one of at least one button 161 , at least one microphone 162 , at least one speaker 163 , and a connector.

버튼(161)은 상기 제1 전자 장치(100)의 하우징(또는 케이스)의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼, 볼륨 버튼, 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼 중 적어도 하나를 포함할 수 있다.The button 161 may be formed on the front, side, or rear of the housing (or case) of the first electronic device 100 , and may include a power/lock button, a volume button, a menu button, a home button, and a back button. button) and at least one of a search button.

마이크(162)는 제1 제어부(110)의 제어에 따라 음성(voice) 또는 소리를 입력 받아 전기적인 신호를 생성한다. The microphone 162 receives a voice or sound under the control of the first controller 110 and generates an electrical signal.

스피커(163)는 제1 제어부(110)의 제어에 따라 다양한 신호 또는 데이터(예를 들어, 무선 데이터, 방송 데이터, 디지털 오디오 데이터, 디지털 동영상 데이터 등)에 대응되는 소리를 제1 전자 장치(100)의 외부로 출력할 수 있다. 커넥터(도시되지 아니함)는 상기 제1 전자 장치(100)와 외부 전자 장치 또는 전원 소스(도시되지 아니함)를 연결하기 위한 인터페이스로 이용될 수 있다. 제1 제어부(110)는 커넥터에 연결된 유선 케이블을 통해 제1 전자 장치(100)의 제1 저장부(175)에 저장된 데이터를 외부 전자 장치로 전송하거나 외부 전자 장치로부터 데이터를 수신할 수 있다. The speaker 163 outputs sounds corresponding to various signals or data (eg, wireless data, broadcast data, digital audio data, digital video data, etc.) according to the control of the first controller 110 to the first electronic device 100 . ) can be printed out. A connector (not shown) may be used as an interface for connecting the first electronic device 100 and an external electronic device or a power source (not shown). The first control unit 110 may transmit data stored in the first storage unit 175 of the first electronic device 100 to an external electronic device or receive data from the external electronic device through a wired cable connected to the connector.

제1 센서 모듈(170)은 제1 전자 장치(100)의 상태 또는 주변 환경 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 제1 센서 모듈(170)은 사용자의 제1 전자 장치(100)에 대한 접근 여부를 검출하는 근접 센서, 제1 전자 장치(100) 주변의 빛의 양을 검출하는 조도 센서, 또는 제1 전자 장치(100)의 동작(예를 들어, 제1 전자 장치(100)의 회전, 제1 전자 장치(100)의 가속 또는 진동)을 검출하는 모션 센서(도시되지 아니함), 제1 전자 장치(100)의 회전 운동을 검출하는 자이로스코프, 제1 전자 장치(100)의 가속 운동을 검출하는 가속도계, 지구 자기장을 이용해 제1 전자 장치(100)의 방위(point of the compass)를 검출하는 지자기 센서(Geo-magnetic Sensor), 중력의 작용 방향을 검출하는 중력 센서(Gravity Sensor), 대기의 압력을 측정하여 고도를 검출하는 고도계(Altimeter), GPS 모듈(157) 등의 적어도 하나의 센서를 포함할 수 있다. The first sensor module 170 includes at least one sensor for detecting the state of the first electronic device 100 or the state of the surrounding environment. For example, the first sensor module 170 may include a proximity sensor detecting whether the user approaches the first electronic device 100 , an illuminance sensor detecting an amount of light around the first electronic device 100 , or A motion sensor (not shown) that detects an operation of the first electronic device 100 (eg, rotation of the first electronic device 100 , acceleration or vibration of the first electronic device 100 ), a first electronic device A gyroscope for detecting a rotational motion of the device 100, an accelerometer for detecting an acceleration motion of the first electronic device 100, and an accelerometer for detecting a point of the compass of the first electronic device 100 using the Earth's magnetic field At least one sensor such as a geo-magnetic sensor, a gravity sensor that detects the action direction of gravity, an altimeter that detects altitude by measuring atmospheric pressure, and a GPS module 157 may include

또한, 제1 센서 모듈(170)은 제1 및 제2 생체 센서(171, 176)를 포함한다. In addition, the first sensor module 170 includes first and second biometric sensors 171 and 176 .

제1 생체 센서(171)는 제1 전자 장치(100)의 전면에 배치되며, 제1 생체 센서(171)는 제1 적외선 광원(172)과 제1 적외선 카메라(173)를 포함한다. 제1 적외선 광원(172)은 적외선을 출력하고, 제1 적외선 카메라(173)는 피사체로부터 반사된 적외선을 검출한다. 예를 들어, 제1 적외선 광원(172)은 행렬 구조의 LED 어레이로 구성될 수 있다. The first biosensor 171 is disposed on the front surface of the first electronic device 100 , and the first biosensor 171 includes a first infrared light source 172 and a first infrared camera 173 . The first infrared light source 172 outputs infrared rays, and the first infrared camera 173 detects infrared rays reflected from the subject. For example, the first infrared light source 172 may be configured as an LED array having a matrix structure.

예를 들어, 제1 적외선 카메라(173)는 적외선을 통과시키고 적외선 이외의 파장 대역을 차단하는 필터와, 필터를 통과한 적외선을 포커싱하는 렌즈계와, 렌즈계에 의해 형성된 광학 이미지를 전기적인 이미지 신호로 변환하여 출력하는 이미지 센서를 포함할 수 있다. 예를 들어, 이미지 센서는 행렬 구조의 PD 어레이로 구성될 수 있다.For example, the first infrared camera 173 may include a filter for passing infrared rays and blocking wavelength bands other than infrared rays, a lens system for focusing infrared rays passing through the filter, and an optical image formed by the lens system into an electrical image signal. It may include an image sensor that converts and outputs. For example, the image sensor may be configured as a PD array in a matrix structure.

제2 생체 센서(176)는 제1 전자 장치(100)의 후면에 배치되며, 제2 생체 센서(176)는 제1 생체 센서(171)와 동일한 구성을 가지며, 제2 적외선 광원(177)과 제2 적외선 카메라(178)를 포함한다.The second bio-sensor 176 is disposed on the rear surface of the first electronic device 100 , and the second bio-sensor 176 has the same configuration as the first bio-sensor 171 , and includes a second infrared light source 177 and and a second infrared camera 178 .

GPS 모듈(157)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 아니함)으로부터 전파를 수신하고, GPS 위성으로부터 제1 전자 장치(100)까지의 전파 도달 시간(Time of Arrival)을 이용하여 제1 전자 장치(100)의 위치를 산출할 수 있다.The GPS module 157 receives radio waves from a plurality of GPS satellites (not shown) on Earth's orbit, and uses the time of arrival of radio waves from the GPS satellites to the first electronic device 100 1 The location of the electronic device 100 may be calculated.

제1 저장부(175)는 제1 제어부(110)의 제어에 따라 제1 통신 모듈(120), 카메라 모듈(150), 제1 입/출력 모듈(160), 제1 센서 모듈(170) 또는 터치 스크린(190)의 동작에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다. 제1 저장부(175)는 제1 전자 장치(100) 또는 제1 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.The first storage unit 175 is a first communication module 120 , a camera module 150 , a first input/output module 160 , a first sensor module 170 or Signals or data input/output according to the operation of the touch screen 190 may be stored. The first storage unit 175 may store control programs and applications for controlling the first electronic device 100 or the first controller 110 .

또한, 제1 저장부(175)는 네비게이션, 화상 통화, 게임, 사용자에게 시간을 기반으로 하는 알람 애플리케이션 등과 같은 다양한 기능들의 애플리케이션들과 이와 관련된 그래픽 사용자 인터페이스(graphical user interface: GUI)를 제공하기 위한 이미지들, 사용자 정보, 문서, 시선 추적을 이용한 시인성 개선 방법과 관련된 데이터베이스들 또는 데이터, 제1 전자 장치(100)을 구동하는데 필요한 배경 이미지들(메뉴 화면, 대기 화면 등) 또는 운영 프로그램들, 카메라 모듈(150)에 의해 촬영된 이미지들 등을 저장할 수 있다. In addition, the first storage unit 175 is for providing applications of various functions such as navigation, video call, game, and a time-based alarm application to the user and a graphical user interface (GUI) related thereto. Images, user information, documents, databases or data related to a method of improving visibility using eye tracking, background images (menu screen, standby screen, etc.) or operating programs required to drive the first electronic device 100 , camera Images captured by the module 150 may be stored.

또한, 제1 저장부(175)는 본 발명에 따른 시선 추적을 이용한 시인성 개선 방법을 실행하기 위한 프로그램 및 관련 데이터를 저장할 수 있다. Also, the first storage unit 175 may store a program and related data for executing the method for improving visibility using eye tracking according to the present invention.

제1 저장부(175)는 기계(예를 들어, 컴퓨터)로 읽을 수 있는 매체이며, 기계로 읽을 수 있는 매체라는 용어는 기계가 특정 기능을 수행할 수 있도록 상기 기계로 데이터를 제공하는 매체로 정의될 수 있다. 저장부(175)는 비휘발성 매체(non-volatile media) 및 휘발성 매체를 포함할 수 있다. 이러한 모든 매체는 상기 매체에 의해 전달되는 명령들이 상기 명령들을 상기 기계로 읽어 들이는 물리적 기구에 의해 검출될 수 있도록 유형의 것이어야 한다. The first storage unit 175 is a machine (eg, computer) readable medium, and the term machine readable medium refers to a medium that provides data to the machine so that the machine can perform a specific function. can be defined. The storage unit 175 may include non-volatile media and volatile media. All such media must be tangible so that the instructions carried by the medium can be detected by a physical device that reads the instructions into the machine.

상기 기계로 읽을 수 있는 매체는, 이에 한정되지 않지만, 플로피 디스크(floppy disk), 플렉서블 디스크(flexible disk), 하드 디스크, 자기 테이프, 시디롬(compact disc read-only memory: CD-ROM), 광학 디스크, 펀치 카드(punch card), 페이퍼 테이프(paper tape), 램, 피롬(Programmable Read-Only Memory: PROM), 이피롬(Erasable PROM: EPROM) 및 플래시-이피롬(FLASH-EPROM) 중의 적어도 하나를 포함한다.The machine-readable medium may include, but is not limited to, a floppy disk, a flexible disk, a hard disk, a magnetic tape, a compact disc read-only memory (CD-ROM), and an optical disk. , punch card, paper tape, RAM, PROM (Programmable Read-Only Memory: PROM), Erasable PROM (EPROM) and FLASH-EPROM include

그리고, 제1 전자 장치(100)는 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영)에 대응되는 사용자 그래픽 인터페이스를 제공하는 적어도 하나의 터치 스크린(190)을 포함할 수 있다. In addition, the first electronic device 100 may include at least one touch screen 190 that provides a user graphic interface corresponding to various services (eg, call, data transmission, broadcasting, photo taking) to the user.

터치 스크린(190)은 사용자의 신체(예를 들어, 엄지를 포함하는 손가락) 또는 입력 유닛(예를 들어, 스타일러스 펜, 전자 펜)을 통해 적어도 하나의 사용자 입력을 수신할 수 있다. The touch screen 190 may receive at least one user input through the user's body (eg, a finger including a thumb) or an input unit (eg, a stylus pen or an electronic pen).

터치 스크린(190)은 하나의 터치의 연속적인 움직임(즉, 드래그 입력)을 수신할 수도 있다. 본 발명에서 터치는 터치 스크린(190)과 손가락 또는 입력 유닛과의 접촉에 한정되지 않고, 비접촉(예를 들어, 터치 스크린(190)과의 직접 접촉 없이 사용자 입력 수단을 검출할 수 있는 인식 거리(예를 들어, 1cm) 이내에 사용자 입력 수단이 위치하는 경우)을 포함할 수 있다. The touch screen 190 may receive continuous movement of one touch (ie, a drag input). In the present invention, the touch is not limited to the contact between the touch screen 190 and the finger or the input unit, and non-contact (for example, the recognition distance ( For example, when the user input means is located within 1 cm)) may be included.

이러한, 터치 스크린(190)은 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식, 초음파(acoustic wave) 방식, EMR(Electromagnetic Resonance) 방식 또는 이들의 조합으로 구현될 수 있다.The touch screen 190 is, for example, a resistive method, a capacitive method, an infrared method, an acoustic wave method, an EMR (Electromagnetic Resonance) method, or a combination thereof. can be implemented.

도 2 및 도 3을 참조하면, 제1 전자 장치(100)의 전면(101) 중앙에는 터치 스크린(190)이 배치된다. 터치 스크린(190)은 제1 전자 장치(100)의 전면(101)의 대부분을 차지하도록 크게 형성될 수 있다. 2 and 3 , the touch screen 190 is disposed at the center of the front surface 101 of the first electronic device 100 . The touch screen 190 may be formed to occupy most of the front surface 101 of the first electronic device 100 .

상기 터치 스크린(190)의 아래에는 홈 버튼(161a), 메뉴 버튼(161b), 뒤로 가기 버튼(161c) 등과 같은 터치 키들, 기계식 버튼들 또는 이들의 조합이 형성될 수 있다. 또한, 이러한 터치 키들은 상기 터치 스크린(190)의 일부로 구성될 수 있다.Touch keys such as a home button 161a, a menu button 161b, and a back button 161c, mechanical buttons, or a combination thereof may be formed under the touch screen 190 . In addition, these touch keys may be configured as a part of the touch screen 190 .

홈 버튼(161a)은 터치 스크린(190)에 메인 홈 화면(main Home screen)을 표시한다. The home button 161a displays a main home screen on the touch screen 190 .

메뉴 버튼(161b)은 터치 스크린(190) 상에 표시될 수 있는 연결 메뉴를 제공한다. 상기 연결 메뉴에는 위젯 추가 메뉴, 배경화면 변경 메뉴, 검색 메뉴, 편집 메뉴, 환경 설정 메뉴 등이 포함될 수 있다. The menu button 161b provides a connection menu that can be displayed on the touch screen 190 . The connection menu may include a widget addition menu, a background screen change menu, a search menu, an edit menu, an environment setting menu, and the like.

뒤로 가기 버튼(161c)은 현재 실행되고 있는 화면의 바로 이전에 실행되었던 화면을 표시하거나, 가장 최근에 사용된 애플리케이션을 종료시키는 경우에 사용될 수 있다.The back button 161c may be used to display a screen that was executed immediately before the currently executed screen or to terminate the most recently used application.

제1 전자 장치(100)의 전면(101)의 상측에는 제1 카메라(151), 조도 센서(170a), 근접 센서(170b) 및 제1 생체 센서(171)가 배치될 수 있다. 제1 전자 장치(100)의 후면(103)에는 제2 카메라(152), 플래시(flash, 153), 스피커(163) 및 제2 생체 센서(176)가 배치될 수 있다. A first camera 151 , an illuminance sensor 170a , a proximity sensor 170b , and a first biometric sensor 171 may be disposed above the front surface 101 of the first electronic device 100 . A second camera 152 , a flash 153 , a speaker 163 , and a second biometric sensor 176 may be disposed on the rear surface 103 of the first electronic device 100 .

제1 전자 장치(100)의 측면(102)에는 예를 들어 전원/잠금 버튼, 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)을 갖는 볼륨 버튼(161e), 하나 또는 복수의 마이크들(162) 등이 배치될 수 있다. On the side surface 102 of the first electronic device 100 , for example, a volume button 161e having a power/lock button, a volume up button 161f and a volume down button 161g, one or a plurality of microphones 162 . ), etc. may be placed.

또한, 제1 전자 장치(100)의 하단 측면에는 커넥터가 형성될 수 있다. 커넥터에는 다수의 전극들이 형성되어 있으며 외부 장치와 유선으로 연결될 수 있다. Also, a connector may be formed on the lower side of the first electronic device 100 . A plurality of electrodes are formed in the connector and may be connected to an external device by wire.

본 발명은 시선 추적을 이용한 시인성 개선 방법을 제공하며, 이러한 시선 추적을 이용한 시인성 개선 방법은 일반적인 터치 스크린 상의 객체, 투명 터치 스크린을 통해 보이는 주변 객체, 증강 현실, 헤드-마운티드 디스플레이(Head Mounted Display: HMD) 장치 등에 적용될 수 있다. The present invention provides a method for improving visibility using eye tracking, and the method for improving visibility using eye tracking includes an object on a general touch screen, a surrounding object viewed through a transparent touch screen, augmented reality, and a head mounted display (Head Mounted Display: HMD) devices and the like.

제1 제어부(110)는 제1 전자 장치(100)의 전반적인 동작을 제어하며, 제1 제어부(110)는 제1 전자 장치(100) 내 다른 구성 소자들을 제어하여 본 발명에 따른 시선 추적을 이용한 시인성 개선 방법을 수행한다.The first control unit 110 controls the overall operation of the first electronic device 100 , and the first control unit 110 controls other components in the first electronic device 100 using eye tracking according to the present invention. A method for improving visibility is performed.

도 4는 본 발명의 제2 예에 따른 제2 전자 장치를 외측에서 본 사시도이고, 도 5는 제2 전자 장치를 내측에서 본 사시도이다. 제2 예에 따른 제2 전자 장치(200)는 헤드-마운티드 디스플레이(Head Mounted Display: HMD)이다. 4 is a perspective view of a second electronic device according to a second example of the present invention viewed from the outside, and FIG. 5 is a perspective view of the second electronic device viewed from the inside. The second electronic device 200 according to the second example is a head mounted display (HMD).

제2 전자 장치(200)는 전체적으로 안경의 외관을 가지며, 휴대 가능한 단말(또는 휴대 통신 단말)이며, 하우징(10)과, 하우징(10) 내에 실장된 회로를 포함한다. The second electronic device 200 has an overall appearance of glasses, is a portable terminal (or a portable communication terminal), and includes a housing 10 and a circuit mounted in the housing 10 .

하우징(10)은 좌측 눈 및 우측 눈에 각각 대응되는 제1 및 제2 윈도우(280, 285)가 고정되는 프론트 프레임(15)과, 제1 및 제2 힌지(22, 23)에 의해 내측으로 접거나 외측으로 펼칠 수 있는 제1 및 제2 템플 프레임(20, 21)을 포함한다. 이하, 좌측 눈 및 우측 눈은 제1 눈 및 제2 눈으로 칭할 수도 있다. 본 발명에서, 제1 및 제2 윈도우(280, 285)는 제1 및 제2 윈도우 패널이라고 칭할 수도 있다. The housing 10 has a front frame 15 to which first and second windows 280 and 285 respectively corresponding to the left and right eyes are fixed, and the first and second hinges 22 and 23 to the inside. It includes first and second temple frames 20 and 21 that can be folded or unfolded outward. Hereinafter, the left eye and the right eye may be referred to as a first eye and a second eye. In the present invention, the first and second windows 280 and 285 may be referred to as first and second window panels.

프론트 프레임(15)의 내측면에는 제3 카메라(260)가 배치되어 있고, 프론트 프레임(15)의 외측면에는 제4 카메라(265)가 배치되어 있으며, 제3 및 제4 카메라(260, 265)는 제1 및 제2 윈도우(280, 285) 사이의 프론트 프레임(15)의 부분(즉, 통상의 안경에서 브릿지에 해당)에 배치된다. A third camera 260 is disposed on an inner surface of the front frame 15 , and a fourth camera 265 is disposed on an outer surface of the front frame 15 , and third and fourth cameras 260 and 265 are disposed on the outer surface of the front frame 15 . ) is disposed in the portion of the front frame 15 between the first and second windows 280 , 285 (ie corresponding to the bridge in ordinary glasses).

또한, 프론트 프레임(15)의 외측면에는 마이크(212)가 배치되어 있고, 또한 프론트 프레임(15)의 외측면에 터치 센서(250)가 배치되어 있다. In addition, the microphone 212 is disposed on the outer surface of the front frame 15 , and the touch sensor 250 is disposed on the outer surface of the front frame 15 .

프론트 프레임(15)의 내측면에는 프론트 프레임(15) 내에 배치된 제1 프로젝터(270)로부터 출력되는 제1 투사 광(310)이 프론트 프레임(15)의 외부로 출력되는 통로가 되는 제1 개구(11)가 배치되어 있다. 또한, 프론트 프레임(15)의 내측면에는 프론트 프레임(15) 내에 배치된 제2 프로젝터(275)로부터 출력되는 제2 투사 광(320)이 프론트 프레임(15)의 외부로 출력되는 통로가 되는 제2 개구(12)가 배치되어 있다. A first opening on the inner surface of the front frame 15 is a passage through which the first projection light 310 output from the first projector 270 disposed in the front frame 15 is output to the outside of the front frame 15 . (11) is placed. In addition, on the inner surface of the front frame 15 , the second projection light 320 output from the second projector 275 disposed in the front frame 15 is a path through which the front frame 15 is output to the outside. Two openings 12 are arranged.

제1 템플 프레임(20)의 외측면에는 적어도 하나의 버튼(213)이 배치된다. At least one button 213 is disposed on the outer surface of the first temple frame 20 .

제1 및 제2 템플 프레임(20, 21)의 내측면에는 적어도 하나의 스피커(211)가 배치된다. At least one speaker 211 is disposed on inner surfaces of the first and second temple frames 20 and 21 .

제1 프로젝터(270)는 제1 가상 이미지를 형성하기 위한 제1 투사 광(310)을 출력하고, 제1 프로젝터(270)로부터 출력되는 제1 투사 광(310)은 제1 윈도우(280)에 의해 집속 및 반사되고, 집속 및 반사된 제1 투사 광(312)은 사용자의 좌측 눈(330)의 망막에 제1 가상 이미지를 형성한다. 이때, 집속은 광을 모으는 것을 말하고, 광을 한 점에 모으는 수렴이나, 광의 빔 스팟을 감소시키는 것 등을 포함하는 의미이다. 바람직하게는, 반사된 제1 투사 광(312)은 좌측 눈(330)의 수정체 또는 동공에 수렴한다. The first projector 270 outputs a first projection light 310 for forming a first virtual image, and the first projection light 310 output from the first projector 270 is on the first window 280 . The focused and reflected first projection light 312 , the focused and reflected light 312 forms a first virtual image on the retina of the user's left eye 330 . In this case, focusing refers to collecting light, and means including convergence to collect light at one point, reducing a beam spot of light, and the like. Preferably, the reflected first projection light 312 converges on the lens or pupil of the left eye 330 .

제2 프로젝터(275)는 제2 가상 이미지를 형성하기 위한 제2 투사 광(320)을 출력하고, 제2 프로젝터(275)로부터 출력되는 제2 투사 광(320)은 제2 윈도우(285)에 의해 집속 및 반사되고, 집속 및 반사된 제2 투사 광(322)은 사용자의 우측 눈(335)의 망막에 제2 가상 이미지를 형성한다. 바람직하게는, 집속 및 반사된 제2 투사 광(322)은 우측 눈(335)의 수정체 또는 동공에 수렴한다. 본 예에서, 2개의 프로젝터를 사용하는 것을 예시하고 있으나, 하나의 프로젝터만을 사용할 수도 있다. The second projector 275 outputs a second projection light 320 for forming a second virtual image, and the second projection light 320 output from the second projector 275 is on the second window 285 . The focused and reflected second projection light 322 , which is focused and reflected, forms a second virtual image on the retina of the user's right eye 335 . Preferably, the focused and reflected second projection light 322 converges on the lens or pupil of the right eye 335 . In this example, the use of two projectors is exemplified, but only one projector may be used.

이하의 설명에서, 제1 가상 이미지와 제2 가상 이미지는 좌측 눈 및 우측 눈에 각각 표시된다는 점을 제외하고는 서로 동일하나, 본 발명은 이에 한정되지 않고, 제1 가상 이미지와 제2 가상 이미지 중의 하나만을 표시할 수도 있다.In the following description, the first virtual image and the second virtual image are the same as each other except that they are displayed on the left eye and the right eye, respectively, but the present invention is not limited thereto, and the first virtual image and the second virtual image Only one of them may be displayed.

도 6은 제2 전자 장치의 회로 구성을 나타내는 도면이다. 제2 전자 장치(200)의 회로 구성은 제1 전자 장치(100)의 회로 구성과 유사하므로, 중복되는 설명은 생략하기로 한다. 6 is a diagram illustrating a circuit configuration of a second electronic device. Since the circuit configuration of the second electronic device 200 is similar to the circuit configuration of the first electronic device 100 , a redundant description will be omitted.

제2 전자 장치(200)는 제2 입/출력 모듈(210)과, 제2 저장부(220)와, 제2 센서 모듈(225)과, 제2 통신 모듈(240)과, 터치 센서(250)와, 제3 및 제4 카메라(260, 265)와, 제1 및 제2 프로젝터(270, 275)와, 제1 및 제2 윈도우(280, 285)와, 제2 제어부(290)를 포함한다.The second electronic device 200 includes a second input/output module 210 , a second storage unit 220 , a second sensor module 225 , a second communication module 240 , and a touch sensor 250 . ) and third and fourth cameras 260 and 265 , first and second projectors 270 and 275 , first and second windows 280 and 285 , and a second control unit 290 . do.

제2 입/출력 모듈(210)은 사용자 입력을 수신하거나, 사용자에게 정보를 알리거나, 외부로부터 데이터를 수신하거나, 외부로 데이터를 출력하기 위한 수단으로서, 적어도 하나의 스피커(211), 적어도 하나의 마이크(212), 적어도 하나의 버튼(213), 커넥터, 키패드 또는 이들의 조합을 포함할 수 있다.The second input/output module 210 is a means for receiving a user input, notifying the user, receiving data from the outside, or outputting data to the outside, at least one speaker 211, at least one of the microphone 212 , at least one button 213 , a connector, a keypad, or a combination thereof.

하나의 마이크(212)가 프론트 프레임(15)의 외측면에 배치될 수 있다. 본 명세서에서, 신호는 데이터로 대체 표기될 수 있으며, 또한 데이터는 데이터 신호로도 표기할 수 있다. One microphone 212 may be disposed on the outer surface of the front frame 15 . In this specification, a signal may be replaced with data, and data may also be expressed as a data signal.

버튼(213)은 사용자 입력을 수신하기 위해 제공되며, 제2 전자 장치(200)의 온/오프, 메뉴 항목 또는 아이템의 선택 및/또는 검색 등을 위해 사용된다. 버튼(213)은 제1 템플 프레임(120)의 외측면에 배치될 수 있다. The button 213 is provided to receive a user input, and is used to turn on/off the second electronic device 200 , select and/or search a menu item or item, and the like. The button 213 may be disposed on the outer surface of the first temple frame 120 .

제2 센서 모듈(225)은 제2 전자 장치(100)의 상태 또는 주변 환경 상태를 검출하는 적어도 하나의 센서를 포함한다. The second sensor module 225 includes at least one sensor that detects the state of the second electronic device 100 or the state of the surrounding environment.

제2 통신 모듈(240)은 유선, 무선 또는 유/무선 통신부일 수 있으며, 제2 제어부(290)로부터의 데이터를 유선 또는 무선으로 외부 통신망 또는 대기를 통해 외부 전자 장치로 전송하거나, 외부 통신망 또는 대기를 통해 외부 전자 장치로부터 데이터를 유선 또는 무선으로 수신하여 제2 제어부(290)로 전달한다. The second communication module 240 may be a wired, wireless, or wired/wireless communication unit, and transmits data from the second control unit 290 to an external electronic device through an external communication network or standby by wire or wirelessly, or through an external communication network or Data is received from the external electronic device in a wired or wireless manner through standby and is then transferred to the second control unit 290 .

터치 센서(250)는 적어도 하나의 터치 입력에 대응되는 신호를 제2 제어부(290)로 전송할 수 있다. 제2 제어부(290)는 이러한 터치 입력 정보로부터 메뉴 항목 또는 아이템의 선택 또는 이동이나, 필기 입력 등의 사용자 입력 정보를 파악하고, 이러한 사용자 입력 정보에 대응하는 기능(전화 연결, 카메라 촬영, 메시지 작성/보기, 데이터 전송 등)을 수행한다. The touch sensor 250 may transmit a signal corresponding to at least one touch input to the second controller 290 . The second control unit 290 recognizes user input information such as selection or movement of a menu item or item or handwriting input from the touch input information, and functions corresponding to the user input information (phone connection, camera shooting, message writing, etc.). /view, send data, etc.).

제3 및 제4 카메라(260, 265)는 각각 렌즈계 및 이미지 센서를 포함하고, 플래쉬 등을 더 포함할 수 있다. 제3 및 제4 카메라(260, 265)는 각각 렌즈계를 통해 입력되는(또는 촬영되는) 광을 전기적인 이미지 신호로 변환하여 제2 제어부(290)로 출력하고, 사용자는 이러한 카메라(260, 265)를 통해 동영상 또는 정지 이미지를 촬영할 수 있다. The third and fourth cameras 260 and 265 each include a lens system and an image sensor, and may further include a flash. The third and fourth cameras 260 and 265 convert light input (or photographed) through the lens system into electrical image signals, respectively, and output them to the second control unit 290 , and the user may use these cameras 260 and 265 . ) to shoot a video or still image.

제2 제어부(290)는 카메라(260, 265)로부터 입력되는 이미지, 제2 저장부(220)에 저장된 이미지, 또는 제2 저장부(220)에 저장된 데이터를 이용하여 제2 제어부(290)에 의해 구성된 이미지를 프레임(frame) 단위로 처리하며, 제1 및/또는 제2 프로젝터(270, 275)의 화면 출력 특성(크기, 화질, 해상도 등)에 맞도록 변환된 이미지를 제1 및/또는 제2 프로젝터(270, 275)를 통해 외부로 출력한다. The second control unit 290 uses an image input from the cameras 260 and 265 , an image stored in the second storage unit 220 , or data stored in the second storage unit 220 to the second control unit 290 . Processes the image constructed by the frame unit by frame, and converts the converted image to fit the screen output characteristics (size, image quality, resolution, etc.) of the first and/or second projectors 270 and 275 to the first and/or It is output to the outside through the second projector (270, 275).

제2 제어부(290)는 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 다양한 서비스(예, 통화, 데이터 전송, 방송, 사진촬영 등)에 대응되는 이미지를 제공할 수 있다. The second control unit 290 may provide images corresponding to various services (eg, call, data transmission, broadcasting, photo taking, etc.) to the user through the first and/or second projectors 270 and 275 .

사용자는 주변 광에 의한 주변 풍경 이미지와 프로젝터(270, 275)로부터 입력된 광에 의한 가상 이미지가 중첩된 이미지를 보게 되며, 사용자에게 이러한 가상 이미지는 주변 풍경 위에 투명한 층이 겹쳐진 것처럼 보여질 수 있다. The user sees an image in which the surrounding landscape image by ambient light and the virtual image by the light input from the projectors 270 and 275 are superimposed, and to the user, this virtual image can be viewed as if a transparent layer is superimposed on the surrounding landscape. .

제2 제어부(290)는 제2 전자 장치(200)의 전반적인 동작을 제어하며, 제2 전자 장치(200) 내 다른 구성 소자들을 제어하여 시선 추적을 이용한 시인성 개선 방법을 수행한다. The second controller 290 controls the overall operation of the second electronic device 200 , and controls other components in the second electronic device 200 to perform a method of improving visibility using eye tracking.

상기 제2 제어부(290)는 제2 센서 모듈(225), 제2 입/출력 모듈(210), 제3 또는 제4 카메라(260, 265), 또는 터치 센서(250)를 통해 입력되는 사용자 명령, 메뉴 항목 또는 아이콘 선택, 또는 이벤트 정보에 따라 제2 저장부(220)에 저장되어 있거나, 제2 통신 모듈(240)을 통해 수신되거나, 제2 저장부(220)에 저장된 데이터를 이용하여 제2 제어부(290)에 의해 구성된 이미지 데이터를 제1 및/또는 제2 프로젝터(270, 275)를 통해 사용자에게 표시할 수 있다. 이때, 상기 이미지는 정지 이미지 또는 동영상일 수 있다. The second control unit 290 is a user command input through the second sensor module 225 , the second input/output module 210 , the third or fourth cameras 260 and 265 , or the touch sensor 250 . , menu item or icon selection, or event information stored in the second storage unit 220, received through the second communication module 240, or using data stored in the second storage unit 220 2 The image data configured by the controller 290 may be displayed to the user through the first and/or second projectors 270 and 275 . In this case, the image may be a still image or a moving image.

제2 저장부(220)는 제2 제어부(290)의 제어에 따라 신호 또는 데이터를 저장할 수 있다. 제2 저장부(220)는 제2 전자 장치(200) 또는 제2 제어부(290)를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.The second storage unit 220 may store signals or data under the control of the second control unit 290 . The second storage 220 may store control programs and applications for the second electronic device 200 or the second controller 290 .

이하, 제1 전자 장치를 위주로 하여, 시선 추적을 이용한 시인성 개선 방법을 설명하기로 한다. Hereinafter, a method for improving visibility using eye tracking will be described with a focus on the first electronic device.

도 7은 본 발명의 제1 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도이다. 7 is a flowchart illustrating a method for improving visibility using eye tracking according to a first example of the present invention.

S110 단계는 사용자 검출 단계로서, 제1 제어부(110)는 제1 카메라(151) 또는 제1 생체 센서(171)를 통해 사용자를 검출한다. 제1 제어부(110)는 제1 카메라(151)에 의해 촬영된 이미지 내에 포함된 피사체가 얼굴을 포함하는지의 여부를 판단할 수 있다. Step S110 is a user detection step, wherein the first control unit 110 detects the user through the first camera 151 or the first biometric sensor 171 . The first controller 110 may determine whether the subject included in the image captured by the first camera 151 includes a face.

예를 들어, 얼굴 인식은 통상의 얼굴 인식 방법을 이용하여 수행되는데, 제1 저장부(175)에 저장된 얼굴의 윤곽선, 얼굴 피부의 색상 및/또는 질감, 템플리트 등을 이용한 얼굴 인식 기술이 이용될 수 있다. 예를 들어, 제1 제어부(110)는 다수의 사용자의 얼굴 이미지들을 통해 얼굴 학습을 수행하고, 이러한 얼굴 학습에 근거하여 입력 이미지에서 얼굴을 인식할 수 있다. 이러한 얼굴 학습 정보는 제1 저장부(175)에 저장되어 있다.For example, face recognition is performed using a conventional face recognition method, and face recognition technology using the outline of the face stored in the first storage unit 175, the color and/or texture of the facial skin, a template, etc. may be used. can For example, the first controller 110 may perform face learning through face images of a plurality of users, and recognize a face from the input image based on the face learning. Such face learning information is stored in the first storage unit 175 .

또한, 제1 제어부(110)는 제1 카메라(151)로부터 입력된 이미지에서 제1 전자 장치(100)에 미리 등록된 사용자가 검출되는지의 여부를 판단할 수도 있다. 이러한 사용자의 등록은 사용자를 검출하기 위한 정보를 제1 저장부(175)의 데이터베이스에 저장함으로써 이루어진다. 이러한 등록된 사용자를 검출하기 위한 정보는 사용자의 얼굴 이미지, 사용자 얼굴 이미지의 특징점(또는 특징 이미지, 특징 패턴 등으로 지칭할 수도 있음) 정보 등을 포함할 수 있다. 이러한 특징점은 에지, 코너, 이미지 패턴, 외곽선 등일 수 있다.Also, the first controller 110 may determine whether a user registered in advance in the first electronic device 100 is detected from the image input from the first camera 151 . This user registration is made by storing information for detecting the user in the database of the first storage unit 175 . The information for detecting such a registered user may include information on a user's face image and feature points of the user's face image (or may also be referred to as a feature image, feature pattern, etc.). These feature points may be edges, corners, image patterns, outlines, and the like.

예를 들어, 제1 제어부(110)는 등록된 사용자 이미지의 특징점들과 입력 이미지에서 검출된 특징점들의 매칭 과정을 수행함으로써, 입력 이미지의 사용자가 등록된 사용자인지의 여부를 결정할 수 있다. For example, the first controller 110 may determine whether the user of the input image is a registered user by performing a process of matching the feature points of the registered user image with the feature points detected in the input image.

또는, 제1 제어부(110)는 제1 생체 센서(171)에 의해 촬영된 이미지 내에 포함된 피사체가 생체를 포함하는지의 여부를 판단할 수 있다.Alternatively, the first controller 110 may determine whether the subject included in the image captured by the first bio-sensor 171 includes a living body.

이러한 생체는 눈, 홍채, 얼굴, 혈관(정맥 등) 등을 포함할 수 있다. Such a living body may include an eye, an iris, a face, a blood vessel (vein, etc.).

도 8은 사용자의 눈을 나타내는 도면이다. 8 is a diagram illustrating a user's eyes.

도 8의 (a)를 참조하면, 사용자의 눈(400)은 동공(410), 홍채(420) 및 공막(430)을 가지며, 제1 적외선 광원(172)은 사용자의 눈(400)에 적외선을 조사하고, 제1 적외선 카메라(173)는 사용자의 눈(400)을 촬영하여 눈 이미지를 출력한다. Referring to FIG. 8A , the user's eye 400 has a pupil 410 , an iris 420 , and a sclera 430 , and the first infrared light source 172 is the user's eye 400 . , and the first infrared camera 173 captures the user's eye 400 and outputs an eye image.

예를 들어, 눈 인식은 통상의 눈 인식 방법을 이용하여 수행되는데, 제1 저장부(175)에 저장된 눈의 윤곽선, 템플리트 등을 이용한 눈 인식 기술이 이용될 수 있다. 예를 들어, 제1 제어부(110)는 다수의 사용자의 눈 이미지들을 통해 눈 학습을 수행하고, 이러한 눈 학습에 근거하여 입력 이미지에서 눈을 인식할 수 있다. 이러한 눈 학습 정보는 제1 저장부(175)에 저장되어 있다.For example, eye recognition is performed using a conventional eye recognition method, and eye recognition technology using an eye outline, a template, etc. stored in the first storage unit 175 may be used. For example, the first controller 110 may perform eye learning through a plurality of user's eye images, and recognize eyes from the input image based on the eye learning. Such eye learning information is stored in the first storage unit 175 .

또한, 제1 제어부(110)는 제1 저장부(175)에 저장된 사용자의 홍채 정보(홍채 이미지, 특징점 정보 등)와 입력 이미지를 비교함으로써, 사용자의 홍채를 인식할 수 있고, 입력 이미지의 사용자가 등록된 사용자인지의 여부를 결정할 수 있다.In addition, the first control unit 110 may recognize the user's iris by comparing the user's iris information (iris image, feature point information, etc.) stored in the first storage unit 175 with the input image, and may recognize the user of the input image. It can be determined whether or not is a registered user.

전술한 바와 마찬가지로, 제2 제어부(290)는 제3 카메라(260)를 통해 사용자를 검출할 수 있다.As described above, the second controller 290 may detect the user through the third camera 260 .

S120 단계는 시선 검출 단계로서, 제1 제어부(110)는 입력 이미지에서 사용자의 시선을 검출한다. 제1 제어부(100)는 통상의 눈 추적(Eye Tracking) 기술을 이용하여 입력 이미지에서 사용자의 시선을 검출할 수 있다.Step S120 is a gaze detection step, and the first controller 110 detects the gaze of the user from the input image. The first controller 100 may detect the user's gaze from the input image using a conventional eye tracking technology.

도 8의 (b)를 참조하면, 제1 제어부(100)는 동공(410)의 포즈(위치 및/또는 방향)로부터 사용자의 시선(또는 시선 방향)을 검출한다. Referring to FIG. 8B , the first controller 100 detects the user's gaze (or gaze direction) from the pose (position and/or direction) of the pupil 410 .

S130 단계는 주목 상태 확인 단계로서, 제1 제어부(110)는 사용자가 임의의 객체를 주목(또는 주시)하고 있는지의 여부를 판단한다. 예를 들어, 제1 제어부(110)는 입력 이미지 내 얼굴 표정, 시선 고정 시간 또는 동공(410)의 변화에 근거하여 사용자의 주목 여부를 판단할 수 있다. Step S130 is an attention state checking step, and the first control unit 110 determines whether the user is paying attention (or gazes at) an arbitrary object. For example, the first controller 110 may determine whether the user is paying attention based on a change in the facial expression, the gaze fixation time, or the pupil 410 in the input image.

도 9는 얼굴 표정에 근거한 주목 여부의 판단 방법을 설명하기 위한 도면이다. 9 is a diagram for explaining a method of determining whether attention is paid based on a facial expression.

도 9의 (a)는 사용자가 주목하고 있지 않은 상태의 얼굴 표정을 나타내며, 양 눈(400)과, 양 눈썹(440)과, 미간 부위(450)에 위치한 양 눈썹(440) 사이의 추미근(460)(눈썹주름근)과, 미간 부위(450)에 위치한 양 눈(400) 사이의 비근근(470)(눈살근)이 표시되어 있다. 9(a) shows a facial expression in a state in which the user is not paying attention, and the cortex muscle ( 460) (wrinkles of the eyebrows) and the proximal muscles 470 (salivary glands) between the eyes 400 located in the glabellar region 450 are indicated.

도 9의 (b)는 사용자가 주목하고 있는 상태의 얼굴 표정을 나타내며, 사용자가 주목하는 경우에, 일반적으로 미간을 찌푸리게 되며, 이러한 미간 부위(450)의 근육 변화를 이용하여 주목 여부를 판단할 수 있다. 예를 들어, 사용자가 주목하는 경우, 추미근의 움직임에 따라 양 눈썹(440) 사이가 좁아지면서 미간에 주름(480)이 생기는 변화와 비근근의 움직임에 따라 코가 위로 당겨지면서 콧등 부분에 주름(480)이 생기는 변화가 발생한다.9( b ) shows the facial expression in a state that the user is paying attention to, and when the user pays attention, the forehead is generally frowned, and it is determined whether or not attention is paid by using this muscle change in the forehead area 450 . can For example, if the user pays attention, the wrinkles 480 between the eyebrows are narrowed according to the movement of the corrugator muscle, and the wrinkles 480 are formed between the eyebrows and the nose is pulled upward according to the movement of the proximal muscles, causing wrinkles on the bridge of the nose ( 480) occurs.

또는, 제1 제어부(110)는 시선 고정 시간에 근거하여 주목 여부를 판단하며, 사용자의 시선이 검출되면, 미리 설정된 제한 시간(즉, 임계값에 해당)을 갖는 타이머를 설정한다. 예를 들어, 타이머의 제한 시간은 1초일 수 있고, 타이머는 1초부터 0초까지 카운트 다운을 수행하고, 타이머의 잔여 시간이 0초가 되면 타이머의 만료를 제어부(110)에 통지하거나, 제1 제어부(110)가 타이머의 만료를 감지할 수 있다. 또는, 타이머는 0초부터 경과 시간을 카운트하고, 경과 시간이 1초가 되면 타이머의 만료를 제1 제어부(110)에 통지하거나, 제1 제어부(110)가 타이머의 만료를 감지할 수 있다. 제1 제어부(110)는 타이머의 제한 시간 동안에 시선 변화가 없으면 사용자가 주목하고 있는 것으로 판단할 수 있다.Alternatively, the first controller 110 determines whether attention is paid based on the gaze fixation time, and when the gaze of the user is detected, sets a timer having a preset time limit (ie, corresponding to a threshold value). For example, the time limit of the timer may be 1 second, the timer counts down from 1 second to 0 seconds, and when the remaining time of the timer reaches 0 seconds, the controller 110 is notified of expiration of the timer, or the first The controller 110 may detect expiration of the timer. Alternatively, the timer counts the elapsed time from 0 seconds, and when the elapsed time reaches 1 second, the expiration of the timer may be notified to the first controller 110 or the first controller 110 may detect the expiration of the timer. The first control unit 110 may determine that the user is paying attention if there is no gaze change during the time limit of the timer.

또는, 제1 제어부(110)는 사용자의 동공(410)의 변화를 통해 주목 여부를 판단하며, 주목할 때 동공(410)이 확장되는 현상을 이용하여 동공(410)의 변화로 주목 여부를 판단할 수 있다.Alternatively, the first control unit 110 determines whether attention is paid based on a change in the user's pupil 410, and determines whether attention is paid by a change in the pupil 410 using a phenomenon in which the pupil 410 expands when paying attention. can

제1 제어부(110)는 사용자가 주목 상태인 경우에 S140 단계를 수행하고, 사용자가 주목 상태가 아닌 경우에 사용자의 주목 여부를 주기적 또는 연속적으로 모니터링한다. The first control unit 110 performs step S140 when the user is in the attention state, and periodically or continuously monitors whether the user is paying attention when the user is not in the attention state.

S140 단계는 주목 대상/영역 검출 단계로서, 제1 제어부(110)는 사용자의 시선과 상면이 교차하는 영역(즉, 주목 영역)을 확인하고, 주목 영역에 위치하는 객체를 검출한다.Step S140 is a target/area detection step, wherein the first controller 110 checks a region (ie, a region of interest) where the user's gaze and the upper surface intersect, and detects an object located in the region of interest.

도 10은 본 발명의 제1 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면이다. 본 예는 터치 스크린(190)이 불투명 터치 스크린인 경우를 예시한다. 10 is a diagram for explaining a method for detecting a target of interest according to a first example of the present invention. This example illustrates a case where the touch screen 190 is an opaque touch screen.

상면(510)은 터치 스크린(190)의 화면 또는 표면이 되며, 사용자 눈(400)의 시선(440)과 상면(510)이 교차하는 영역이 주목 영역(520)이 된다. 제1 제어부(110)는 주목 영역(520) 내 객체(530)를 확인한다. The upper surface 510 becomes a screen or surface of the touch screen 190 , and an area where the gaze 440 of the user's eye 400 and the upper surface 510 intersect becomes the area of interest 520 . The first control unit 110 identifies the object 530 in the area of interest 520 .

도 11은 본 발명의 제2 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면이다. 본 예는 터치 스크린(190)이 불투명 터치 스크린인 경우를 예시한다.11 is a diagram for explaining a method for detecting a target of interest according to a second example of the present invention. This example illustrates a case where the touch screen 190 is an opaque touch screen.

제2 카메라(152)의 화각(620)에 의해 제한된 주변 풍경, 즉 제2 카메라(152)에 의해 촬영된 주변 풍경 영역의 이미지가 상면(630)이 되며, 사용자(610) 눈의 시선(612)과 상면(630)이 교차하는 영역이 주목 영역(640)이 된다. The image of the surrounding landscape limited by the angle of view 620 of the second camera 152, that is, the surrounding landscape area photographed by the second camera 152 becomes the upper surface 630, and the user's 610's eye gaze 612 ) and the area where the upper surface 630 intersects becomes the area of interest 640 .

도 12는 본 발명의 제3 예에 따른 주목 대상 검출 방법을 설명하기 위한 도면이다. 본 예는 제2 전자 장치(200)에서 주목 대상을 검출하는 경우를 예시한다. 주목 대상은 사람, 동물, 식물, 사물, 건물, 산 등 주변 풍경 내 임의의 객체를 포함한다. 12 is a view for explaining a method for detecting a target of interest according to a third example of the present invention. This example exemplifies a case in which an object of interest is detected by the second electronic device 200 . An object of interest includes an arbitrary object in the surrounding landscape, such as a person, an animal, a plant, an object, a building, or a mountain.

제4 카메라(265)의 화각에 의해 제한된 주변 풍경(720), 즉 제4 카메라(265)에 의해 촬영된 주변 풍경 영역(720)의 이미지가 상면(730)이 되며, 사용자 눈(400)의 시선(440)과 상면(730)이 교차하는 영역이 주목 영역(732)이 된다. 제2 제어부(290)는 주변 풍경(720) 내 나무(722)에 대응되는 주목 영역(732) 내 나무 이미지(734)를 주목 대상으로 확인한다. 즉, 투명 윈도우(280, 285)에 사용자의 시선의 연장선상에 있는 영역 또는 객체가 주목 영역 또는 주목 대상이 된다. 다시 말해서, 투명 터치 스크린(190), 투명 윈도우(280, 285) 등과 같은 투명한 디스플레이에 사용자의 시선의 연장선상에 있는 영역 또는 객체가 주목 영역 또는 주목 대상이 된다.The image of the peripheral landscape 720 limited by the angle of view of the fourth camera 265 , that is, the peripheral landscape region 720 photographed by the fourth camera 265 becomes the upper surface 730 , and An area where the gaze 440 and the upper surface 730 intersect becomes the area of interest 732 . The second control unit 290 identifies the tree image 734 in the attention area 732 corresponding to the tree 722 in the surrounding landscape 720 as an object of interest. That is, the area or object on the extension line of the user's gaze in the transparent windows 280 and 285 becomes the area of interest or the object of interest. In other words, an area or object on the extension line of the user's gaze on a transparent display such as the transparent touch screen 190 and the transparent windows 280 and 285 becomes the area of interest or the object of interest.

S150 단계는 이미지 검색 및 표시 단계로서, 제1 제어부(110)는 주목 대상에 대응하는 시인성 높은 이미지를 검색하고, 검색된 이미지를 표시한다.Step S150 is an image search and display step, in which the first controller 110 searches for an image with high visibility corresponding to a target of interest and displays the searched image.

시인성이 높은 이미지는 고해상도(또는 고화질)의 이미지, 선명도를 높인 이미지, 벡터 그래픽스 이미지, 근거리에서의 이미지, 시간적으로 광량이 풍부할 경우에 촬영한 이미지(즉, 주변 조도가 높은 상태에서 촬영한 이미지) 등이 있다. 시인성 높은 이미지는 동일한 크기를 기준으로 상기 주목 대상보다 해상도, 선명도 또는 밝기가 높다.Images with high visibility include high-resolution (or high-definition) images, images with increased sharpness, vector graphics images, images from a short distance, images taken when the amount of light is abundant in time (i.e., images shot with high ambient light) ), etc. An image with high visibility has a higher resolution, sharpness, or brightness than the target of interest based on the same size.

제1 제어부(110)는 제1 저장부(175)에서 시인성 낮은 주목 대상에 대응하는 시인성 높은 이미지를 검색할 수 있으며, 예를 들어, 제1 제어부(110)는 이미지 매칭 과정을 통해 제1 저장부(175)에 저장된 시인성 높은 이미지를 확인할 수 있다. The first controller 110 may search for an image with high visibility corresponding to an object of interest with low visibility from the first storage 175 , and for example, the first controller 110 may store the first image through an image matching process. The highly visible image stored in the unit 175 may be checked.

또는, 제1 제어부(110)는 시인성 높은 이미지를 외부의 서버로부터 검색할 수 있다. 예를 들어, 제1 제어부(110)는 시인성 낮은 주목 대상을 포함하는 이미지(또는 이미지와 주목 대상의 위치 정보) 및/또는 주목 대상 관련 정보를 서버로 전송하고, 서버로부터 검색된 시인성 높은 이미지를 수신할 수도 있다. 이러한 주목 대상 관련 정보는 주목 대상을 촬영한 시점의 제1 전자 장치(100)의 위치 정보, 자세(또는, 방위 내지는 방향) 정보, 이미지 출처 정보(이미지 관련 프로그램, 이미지를 다운로드한 웹 주소 등) 등을 포함할 수 있다. Alternatively, the first controller 110 may search for an image with high visibility from an external server. For example, the first controller 110 transmits an image (or location information of the image and the target of interest) and/or information related to the target of interest including the low-visibility target to the server, and receives the high-visibility image retrieved from the server. You may. Such attention-related information includes location information, posture (or azimuth or direction) information, and image source information (image-related program, web address from which an image is downloaded, etc.) of the first electronic device 100 at the time the object of interest is captured. and the like.

도 13은 본 발명의 제1 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면이다. 13 is a view for explaining a method of displaying an image with high visibility according to a first example of the present invention.

도 13의 (a)을 참조하면, 사용자의 눈(400)은 터치 스크린(190)에 표시된 썸네일 이미지(810)에 주목하고 있다. Referring to FIG. 13A , the user's eye 400 pays attention to the thumbnail image 810 displayed on the touch screen 190 .

도 13의 (b)는 본 발명의 비교예로서, 해상도가 낮은 썸네일 이미지를 확대한 이미지(812)를 나타낸다. 13B shows an enlarged image 812 of a thumbnail image with low resolution as a comparative example of the present invention.

도 13의 (c)를 참고하면, 제1 제어부(110)는 썸네일 이미지(810)의 관련 정보(즉, 원본 이미지의 위치 정보)를 확인하고, 터치 스크린(190)에 확대된 원본 이미지(814)를 표시한다. Referring to (c) of FIG. 13 , the first control unit 110 checks related information of the thumbnail image 810 (ie, location information of the original image), and the enlarged original image 814 on the touch screen 190 . ) is indicated.

도 13의 (b)와 같이, 해상도가 낮은 썸네일 이미지를 확대하면, 선명하지 않은 저화질의 이미지(812)가 표시되는 반면에, 도 13의 (c)와 같이, 썸네일 이미지과 연관된 원본 이미지를 사용함으로써 선명한 고화질의 이미지(814)를 표시할 수 있다. As shown in (b) of FIG. 13, when a thumbnail image with low resolution is enlarged, an unclear low-quality image 812 is displayed, whereas, as shown in FIG. 13(c), by using the original image associated with the thumbnail image. A clear, high-quality image 814 may be displayed.

도 14는 본 발명의 제2 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면이다.14 is a view for explaining a method of displaying an image with high visibility according to a second example of the present invention.

도 14의 (a)를 참고하면, 제1 전자 장치(100)의 터치 스크린(190)에는 탁자 위에 놓인 제1 내지 제3 박스(830, 832, 834)를 촬영한 이미지(820)가 도시되어 있다. 제1 제어부(110)는 사용자의 시선에 근거하여 제1 박스(830)를 포함하는 주목 영역(840)을 확인한다.Referring to FIG. 14A , an image 820 obtained by photographing the first to third boxes 830 , 832 , and 834 placed on a table is shown on the touch screen 190 of the first electronic device 100 . have. The first control unit 110 identifies the area of interest 840 including the first box 830 based on the user's gaze.

도 14의 (b)를 참고하면, 제1 제어부(110)는 주목 영역 이미지(840)를 서버로 전송한다. Referring to (b) of FIG. 14 , the first control unit 110 transmits an image of a region of interest 840 to the server.

도 14의 (c)를 참고하면, 제1 제어부(110)는 서버로부터 주목 영역 내 제1 박스에 대한 시인성 높은 이미지(832)를 수신하고, 터치 스크린(190)에는 시인성 높은 이미지(832)가 표시된다. Referring to (c) of FIG. 14 , the first control unit 110 receives an image 832 with high visibility for the first box in the area of interest from the server, and an image 832 with high visibility on the touch screen 190 is displayed. is displayed

도 15는 본 발명의 제3 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면이다.15 is a view for explaining a method of displaying an image with high visibility according to a third example of the present invention.

도 15의 (a)를 참고하면, 제1 전자 장치(100)의 터치 스크린(190)에는 새를 촬영한 선명도가 낮은 이미지(850)가 도시되어 있다. 제1 제어부(110)는 사용자의 시선에 근거하여 시인성 낮은 이미지(850)를 주목 대상으로서 확인한다.Referring to (a) of FIG. 15 , an image 850 with low clarity of photographing a bird is shown on the touch screen 190 of the first electronic device 100 . The first controller 110 identifies the low-visibility image 850 as a target of interest based on the user's gaze.

도 15의 (b)를 참고하면, 제1 제어부(110)는 주목 대상에 대응하는 시인성 높은 이미지를 검색할 수 없는 경우에, 이미지 필터링 또는 시각 효과 적용을 통해 선명도 높은 이미지를 생성하고, 생성된 선명도 높은 이미지(852)를 터치 스크린(190)에 표시한다. Referring to (b) of FIG. 15 , when the first control unit 110 cannot search for an image with high visibility corresponding to an object of interest, it generates an image with high clarity through image filtering or application of a visual effect, and generates the generated image. A high-definition image 852 is displayed on the touch screen 190 .

또한 촬영시 사용한 카메라의 파라메터를 조정하는 것이 가능하다. 예를 들어 새 주변의 광량이 많거나 어두운 경우 카메라 조리개나 화이트 밸런스 수치에 의해 주목하는 대상이 제대로 찍히지 않는 경우 주목하는 대상을 확인 후 주목하는 대상을 중심으로 카메라의 파라메터를 조정하여 시인성이 높은 이미지를 표시한다.It is also possible to adjust the parameters of the camera used for shooting. For example, if there is a lot of light around a bird or when it is dark, the target of interest is not captured properly due to the camera aperture or white balance value. to display

도 16은 본 발명의 제4 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면이다. 16 is a view for explaining a method of displaying an image with high visibility according to a fourth example of the present invention.

도 16의 (a)을 참조하면, 사용자는 터치 스크린(190)에 표시된 글자(870)에 주목하고 있고, 제1 제어부(110)는 사용자의 시선에 근거하여 주목 영역(860)을 확인하고, 크기가 작아서 시인성이 낮은 글자(870)를 주목 대상으로서 확인한다.Referring to FIG. 16 (a), the user pays attention to the character 870 displayed on the touch screen 190, and the first control unit 110 identifies the area of interest 860 based on the user's gaze, A character 870 having low visibility due to its small size is identified as an object of interest.

도 16의 (b)는 본 발명의 비교 예로서, 크기가 작은 글자를 나타내는 래스터 그래픽스 이미지 또는 비트맵 이미지를 확대한 경우에, 확인하기 어려운 이미지(872)가 생성됨을 나타낸다. As a comparative example of the present invention, FIG. 16B shows that an image 872 that is difficult to confirm is generated when a raster graphics image or a bitmap image representing small characters is enlarged.

도 16의 (c)을 참조하면, 제1 제어부(110)는 비트맵 이미지 내 주목 대상인 글자를 통상의 문자 인식 방법을 이용하여 인식하고, 주목 대상에 대응하는 벡터 이미지를 제1 저장부(175)에서 검색하며, 검색된 벡터 이미지(874)를 확대하여 표시한다. 또한, 주목 대상인 글자가 벡터 이미지인 경우에 글자 크기를 증가시켜서 표시할 수 있다. Referring to (c) of FIG. 16 , the first controller 110 recognizes a character of interest in a bitmap image using a normal character recognition method, and stores a vector image corresponding to the target of interest in the first storage unit 175 ), and the searched vector image 874 is enlarged and displayed. In addition, when the character of interest is a vector image, it can be displayed by increasing the font size.

도 17은 서버의 구성을 나타내는 도면이다. 17 is a diagram showing the configuration of a server.

서버(900)는 제3 통신 모듈(920), 제3 저장부(930) 및 제3 제어부(910)를 포함한다. The server 900 includes a third communication module 920 , a third storage unit 930 , and a third control unit 910 .

제3 통신 모듈(920)은 제1 전자 장치(100) 또는 제2 전자 장치(200)와의 유선 또는 무선 통신을 수행한다. The third communication module 920 performs wired or wireless communication with the first electronic device 100 or the second electronic device 200 .

제3 저장부(930)는 제1 또는 제2 전자 장치(100, 200)가 시인성 높은 이미지를 표시하는 방법을 수행하도록 하는 지시들을 포함하는 프로그램, 상기 프로그램의 업데이트 정보, 이미지 데이터베이스, 스트리트 파노라마 데이터베이스, 2차원 맵 등을 포함한다. The third storage unit 930 may store a program including instructions for causing the first or second electronic device 100 or 200 to perform a method of displaying an image with high visibility, update information of the program, an image database, and a street panorama database. , two-dimensional maps, and the like.

스트리트 파노라마 데이터베이스는 서로 다른 다수의 위치들과 맵핑된 스트리트 뷰 이미지들을 포함한다. 스트리트 파노라마 데이터베이스는 맵 데이터베이스로서 도시 또는 거리를 카메라로 촬영한 실사 이미지로 이루어진 실사 3차원 맵을 저장한다. 여기서 실사 3D 맵이란 차량 또는 항공기 등을 이용하여 실제 거리를 촬영하고, 상기 촬영된 실사를 이용하여 구현된 3D 맵을 의미한다. 이러한 실사 3D 맵은 차량에 장착된 스트레오 카메라를 이용하여 도시 또는 거리를 촬영함으로써 촬영된 영상 내에 포함된 객체들의 3차원 좌표(x축, y축, z축 좌표들)뿐만 아니라 상기 촬영에 사용된 카메라와 상기 객체들간의 거리에 대응하는 뎁스(depth) 정보를 얻을 수 있다. 또한, 이러한 실사 3D 맵은 항공기를 이용하여 넓은 지역에 대한 다수의 2차원 영상들을 촬영하고, 촬영된 영상들 중 인접한 2개의 2D 영상간의 겹치는 영역에서 뎁스(depth) 정보를 추출하고 3차원 매핑(mapping)을 통한 3차원 모델링에 의하여 구현될 수도 있다. 또한 상기 실사 3D 맵에 포함된 각 오브젝트들을 다수의 3차원 정보 및 뎁스 정보를 갖게 된다. 예를 들어 상기 각 오브젝트를 표시하는 다수의 픽셀(pixel)들 각각이 3차원 정보 및 뎁스 정보를 가질 수 있다. 이에 따라 상기 실사 3D 맵은 특정 빌딩의 위치뿐만 아니라 상기 특정 빌딩의 전면, 후면, 측면들과 같은 빌딩의 윤곽을 구분할 수 있고, 또한 상기 빌딩의 각 층을 구분할 수 있다. 이와 대조적으로, 기존 2D 맵에서는 단순히 GPS 정보만을 이용하였기 때문에 특정 건물에 대해서는 하나의 위치 정보만을 제공하였을 뿐, 특정 건물의 전면, 후면 또는 각 층을 세부적으로 구분하지 못하였다는 점에 실사 3D 맵과 차이가 있다.The street panorama database includes street view images mapped with a number of different locations. The street panorama database is a map database and stores a live-action three-dimensional map composed of an actual image taken with a camera of a city or street. Here, the live-action 3D map refers to a 3D map implemented by photographing an actual distance using a vehicle or an aircraft, and using the photographed actual image. These live-action 3D maps are the three-dimensional coordinates (x-axis, y-axis, z-axis coordinates) of objects included in the image captured by photographing a city or street using a stereo camera mounted on a vehicle, as well as the three-dimensional coordinates (x-axis, y-axis, z-axis coordinates) used for the Depth information corresponding to the distance between the camera and the objects may be obtained. In addition, such a live-action 3D map takes a number of 2D images for a large area using an aircraft, extracts depth information from an overlapping area between two adjacent 2D images among the captured images, and performs 3D mapping ( It may be implemented by 3D modeling through mapping). In addition, each object included in the actual 3D map has a plurality of 3D information and depth information. For example, each of a plurality of pixels displaying each object may have 3D information and depth information. Accordingly, the actual 3D map may distinguish not only the location of the specific building, but also the outline of the building such as the front, rear, and side surfaces of the specific building, and may also classify each floor of the building. In contrast, the existing 2D map provided only one location information for a specific building because only GPS information was used. is different from

제3 제어부(910)는 제1 또는 제2 전자 장치(100, 200)의 요청 또는 자동으로 프로그램 또는 업데이트 정보를 상기 제1 또는 제2 전자 장치(100, 200)로 전송한다.The third control unit 910 transmits program or update information to the first or second electronic device 100 or 200 at the request of the first or second electronic device 100 or 200 or automatically.

또한, 제3 제어부(910)는 제1 또는 제2 전자 장치(100, 200)로부터 수신한 주목 대상 이미지(및/또는 관련 정보)와 이미지 데이터베이스 또는 스트리트 파노라마 데이터베이스에 저장된 이미지를 매칭하고, 매칭된 시인성 높은 이미지를 제1 또는 제2 전자 장치(100, 200)로 전송한다. 제3 제어부(910)는 제1 또는 제2 전자 장치(100, 200)로부터 수신한 주목 대상 관련 정보를 이용하여 매칭 속도 및 정확도를 향상시킬 수 있다. 각 데이터베이스는 이미지 외에 이와 대응되는 위치, 자세(방위) 등을 포함하는 위치 정보, 이미지 출처 정보(이미지 관련 프로그램, 이미지를 다운로드한 웹 주소 등) 등을 저장할 수 있다.In addition, the third controller 910 matches the target image (and/or related information) received from the first or second electronic device 100 or 200 with the image stored in the image database or the street panorama database, and matches the image stored in the image database or the street panorama database. A highly visible image is transmitted to the first or second electronic device 100 or 200 . The third control unit 910 may improve the matching speed and accuracy by using the target-related information received from the first or second electronic device 100 or 200 . In addition to the image, each database may store location information including a corresponding position and posture (orientation), image source information (image-related program, web address from which the image is downloaded, etc.), etc., in addition to the image.

전술한 예들에서 제1 전자 장치(100)를 위주로 설명하였으나, 본 발명의 예들은 제1 또는 제2 전자 장치(100, 200)에 동일 또는 유사하게 적용될 수 있다. 이하, 제2 전자 장치(200)를 이용한 시인성 높은 이미지를 표시하는 방법의 다른 예들을 예시하자면 아래와 같다. Although the first electronic device 100 has been mainly described in the above-described examples, examples of the present invention may be applied to the first or second electronic device 100 or 200 in the same or similar manner. Hereinafter, another example of a method of displaying an image with high visibility using the second electronic device 200 is as follows.

도 18 및 도 19는 본 발명의 제5 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면들이다. 18 and 19 are diagrams for explaining a method of displaying an image with high visibility according to a fifth example of the present invention.

사용자의 시선 방향에 복수의 주목 대상들이 존재하는 경우, 또는 하나의 주목 대상이 존재하는 경우에, 제2 제어부(290)는 사용자의 명령에 따라 사용자의 시점을 가상으로 이동할 수 있다. 이러한 시점 이동은 전술한 예들에서 주목 대상의 확대 표시에 대응되나, 또한 주목 대상의 축소에 대응될 수도 있다. When a plurality of objects of interest exist in the user's gaze direction, or when there is one object of interest, the second control unit 290 may virtually move the user's viewpoint according to a user's command. This movement of the viewpoint corresponds to the enlarged display of the object of interest in the above-described examples, but may also correspond to the reduction of the object of interest.

도 18의 (a)를 참조하면, 사용자 눈(1010)의 시선 방향(1020)에 제1 및 제2 주목 대상(1030, 1040)이 존재하는 경우에, 제2 제어부(290)는 사용자와 가까운 제1 주목 대상(1030)에 대한 시인성 높은 이미지를 표시하나, 사용자의 명령에 따라 가상 시점을 시선 방향을 따라 전후로 이동시킬 수 있다. Referring to FIG. 18A , when the first and second objects of interest 1030 and 1040 exist in the gaze direction 1020 of the user's eye 1010, the second control unit 290 controls the user close to the user. Although a highly visible image of the first object of interest 1030 is displayed, the virtual viewpoint may be moved back and forth along the gaze direction according to a user's command.

도 18의 (b)는 사용자가 제2 전자 장치(200)의 제2 윈도우(285)를 통해 제1 및 제2 주목 대상(1030, 1040)을 보는 것을 나타낸다. 18B illustrates that the user views the first and second objects of interest 1030 and 1040 through the second window 285 of the second electronic device 200 .

도 19의 (a)는 사용자와 제1 주목 대상(1030) 사이의 제1 가상 시점(1012)에서의 확대된 제1 주목 대상(1032)(즉, 시인성 높은 이미지)이 제2 윈도우(285)를 통해 표시된다. 이와 마찬가지로, 제1 윈도우(280)를 통해서도 확대된 제1 주목 대상이 표시된다. 19A shows an enlarged first object of interest 1032 (ie, an image with high visibility) in a first virtual viewpoint 1012 between the user and the first object of interest 1030 in a second window 285 . is displayed through Similarly, the enlarged first object of interest is also displayed through the first window 280 .

도 19의 (b)는 제1 주목 대상(1030) 및 제2 주목 대상(1040) 사이의 제2 가상 시점(1014)에서의 확대된 제2 주목 대상(1042)(즉, 시인성 높은 이미지)이 제2 윈도우(285)에 표시된다.19B shows an enlarged second object of interest 1042 (that is, an image with high visibility) at a second virtual viewpoint 1014 between the first object of interest 1030 and the second object of interest 1040 . The second window 285 is displayed.

제2 제어부(290)는 주목 대상의 이미지 및 관련 정보(제2 전자 장치(200)의 위치 정보, 자세(또는, 방위 내지는 방향) 정보)를 서버(900)로 전송하고, 서버(900)로부터 수신한 시인성 높은 주목 대상의 이미지를 수신하여 사용자에게 표시할 수 있다. 이러한 가상 시점의 전환은 사용자의 명령(음성, 손짓, 터치)에 따라 수행될 수 있다. 또한 사용자의 표정 변화 (주목을 유지하는 경우 먼 곳의 물체 이미지 제공 등)에 의해 제공하는 이미지를 전환하는 것이 가능하다. The second control unit 290 transmits an image of a target of interest and related information (location information and posture (or orientation or direction) information of the second electronic device 200 ) to the server 900 , and from the server 900 . The received image of the target of interest with high visibility may be received and displayed to the user. The virtual viewpoint may be switched according to a user's command (voice, hand gesture, or touch). In addition, it is possible to switch the provided image by changing the user's facial expression (providing an image of a distant object when keeping attention, etc.).

도 24는 주목 대상의 변경을 설명하기 위한 도면이다.24 is a diagram for explaining a change of an object of interest.

제 2 윈도우(285)에 시인성 높은 이미지를 표시할 때 검출된 시선의 각도 오차에 의해 사용자의 의도와는 다른 위치에 있는 이미지를 표시하는 경우가 생길 수 있다. 시인성 높은 이미지를 표시할 때 사용자의 시선 이동을 검출하여 주목 대상을 변경함으로써 사용자의 의도에 맞는 이미지를 표시할 수 있도록 할 수 있다. When displaying an image with high visibility on the second window 285 , there may be a case in which an image in a position different from the user's intention is displayed due to an angle error of the detected gaze. When displaying an image with high visibility, the user's gaze movement is detected and the target of interest is changed, so that an image suitable for the user's intention can be displayed.

도 24의 (a)를 참조하면, 사용자의 시선(1072)이 실제로는 제2 물체(1060)를 향하고 있는데, 주목 대상 판별시 오차에 의해 사용자의 시선(1071)이 제1 물체(1050)를 향하고 있는 것으로 잘못 판단될 수 있다. Referring to (a) of FIG. 24 , although the user's gaze 1072 is actually facing the second object 1060, the user's gaze 1071 is the first object 1050 due to an error in determining the target of interest. It could be mistakenly judged to be heading.

도 24의 (b)를 참조하면, 제2 제어부(290)는 사용자가 제1 물체(1050)를 주목하고 있는 것으로 잘못 측정함으로써, 제1 물체(1050)의 시인성 높은 이미지(1052)를 제 2 윈도우(285)의 중앙에 표시한다. Referring to (b) of FIG. 24 , the second control unit 290 erroneously measures that the user is paying attention to the first object 1050 , thereby generating a second highly visible image 1052 of the first object 1050 . It is displayed in the center of the window 285 .

이후, 제2 제어부(290)는 사용자의 시선을 추적하여 사용자의 시선(1073)이 제2 물체(1060)의 시인성 높은 이미지(1062)를 향하고 있음을 확인하고, 주목 대상을 변경한다. Thereafter, the second control unit 290 tracks the user's gaze, confirms that the user's gaze 1073 is facing the highly visible image 1062 of the second object 1060 , and changes the target of interest.

도 24의 (c)를 참조하면, 제2 제어부(290)는 주목 대상을 변경하고, 제2 물체(1060)의 시인성 높은 이미지(1062)를 제 2 윈도우(285)의 중앙에 표시한다. Referring to FIG. 24C , the second controller 290 changes the target of interest and displays an image 1062 with high visibility of the second object 1060 in the center of the second window 285 .

본 예에서는, 사용자의 시선을 추적하여 제공한 이미지에서 사용자가 재차 주목하고 있는 대상을 중심으로 제공 대상 이미지를 보정하고 있으나, 이러한 시선 감지 외에도 사용자의 명령(손짓, 음성, 터치 등)에 따라 제공한 이미지의 세부 조정이 가능하다. In this example, in the image provided by tracking the user's gaze, the provided target image is corrected based on the target that the user is paying attention to again. It is possible to fine-tune one image.

도 20은 본 발명의 제6 예에 따른 시인성 높은 이미지를 표시하는 방법을 설명하기 위한 도면이다.20 is a diagram for explaining a method of displaying an image with high visibility according to a sixth example of the present invention.

도 20의 (a)는 사용자(1010)가 주변이 어두운 밤에 제2 전자 장치(200)의 제2 윈도우(285)를 통해 어두운 주목 대상(1040)을 보는 것을 나타낸다.20A illustrates that the user 1010 sees the dark target 1040 through the second window 285 of the second electronic device 200 at night when the surroundings are dark.

도 20의 (b)를 참고하면, 주목 대상(1040)의 확대된 밝은 이미지(1044)(즉, 시인성 높은 이미지)가 제2 윈도우(285)에 표시된다.Referring to FIG. 20B , an enlarged bright image 1044 (ie, a highly visible image) of the target 1040 is displayed on the second window 285 .

제2 제어부(290)는 주목 대상(1040)의 이미지 및 관련 정보(제2 전자 장치(200)의 위치 정보, 자세(또는, 방위 내지는 방향) 정보)를 서버(900)로 전송하고, 서버(900)로부터 수신한 시인성 높은 주목 대상의 이미지(1044)를 수신하여 사용자에게 표시할 수 있다.The second control unit 290 transmits the image of the target 1040 and related information (position information and posture (or bearing or direction) information of the second electronic device 200 ) to the server 900 , and the server ( The image 1044 of the target of high visibility received from 900 may be received and displayed to the user.

전술한 예들에서, 시인성 높은 이미지를 사용자에게 표시한 이후, 이전 화면으로의 복귀는 주목 상태의 해제에 의해 수행될 수 있다. 예를 들어, 제어부(110, 290)는 사용자의 시선이 변경된 경우, 찌푸린 표정이 풀린 경우 등과 같이 사용자가 해당 객체를 더 이상 주목하지 않을 때 시인성 높은 이미지를 표시하기 직전의 화면을 표시할 수 있다. 투명 터치 스크린이나 제2 전자 장치(200)의 경우에, 제어부(110, 290)는 시인성 높은 이미지의 표시를 중단할 수 있다. In the above-described examples, after displaying an image with high visibility to the user, returning to the previous screen may be performed by releasing the attention state. For example, the control unit 110, 290 may display a screen immediately before displaying a highly visible image when the user no longer pays attention to the object, such as when the user's gaze is changed, when the frown is released, etc. . In the case of the transparent touch screen or the second electronic device 200 , the controllers 110 and 290 may stop displaying an image with high visibility.

도 21은 본 발명의 일 예에 따른 시인성 높은 이미지의 표시를 중단하는 방법을 설명하기 위한 도면이다.21 is a diagram for explaining a method of stopping display of an image with high visibility according to an embodiment of the present invention.

도 21의 (a)는 터치 스크린(190)에 시인성 높은 이미지인 확대된 웹페이지(1110)가 표시된 것을 나타낸다.21A shows that an enlarged web page 1110 that is an image with high visibility is displayed on the touch screen 190 .

도 21의 (b)를 참고하면, 사용자(1120)가 '후'라는 입김(1122)을 불면, 제1 제어부(110)는 시인성 높은 이미지를 표시하기 직전의 화면, 즉 확대되기 이전의 웹페이지(1112)를 표시한다. 제1 제어부(110)는 입김이 마이크(162)를 지날 때의 마찰음을 이용하여 주목 상태의 해제 여부를 판단할 수 있다.Referring to (b) of FIG. 21 , when the user 1120 blows a breath 1122 of 'who', the first control unit 110 controls the screen immediately before displaying the highly visible image, that is, the web page before being enlarged. (1112) is indicated. The first control unit 110 may determine whether the attention state is released by using a fricative sound generated when the breath passes through the microphone 162 .

전술한 예에서는, 제어부(110, 290)는 사용자가 임의의 객체를 주목(또는 주시)하고 있는지의 여부를 판단하였으나, 이러한 주목 여부는 얼굴 표정, 시선 고정 시간뿐만 아니라, 사용자의 직접적인 명령에 의해 판단될 수도 있다. 이는 주목 여부의 판단 대신에 사용자 명령이 수신되는지의 여부를 판단하는 것으로도 볼 수 있다. In the above-described example, the controllers 110 and 290 determined whether the user is paying attention to (or watching) an arbitrary object, but whether the user is paying attention (or not) is determined by the user's direct command as well as the facial expression and gaze fixation time. may be judged. This can also be seen as determining whether a user command is received instead of determining whether to pay attention.

도 22는 본 발명의 제2 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도이다. 22 is a flowchart illustrating a method for improving visibility using eye tracking according to a second example of the present invention.

S210 단계는 사용자 검출 단계로서, 제1 제어부(110)는 제1 카메라(151) 또는 제1 생체 센서(171)를 통해 사용자를 검출한다. 제1 제어부(110)는 제1 카메라(151) 또는 제1 생체 센서(171)에 의해 촬영된 이미지 내에 포함된 피사체가 얼굴 또는 생체를 포함하는지의 여부를 판단할 수 있다.Step S210 is a user detection step, wherein the first controller 110 detects the user through the first camera 151 or the first biometric sensor 171 . The first controller 110 may determine whether the subject included in the image captured by the first camera 151 or the first biometric sensor 171 includes a face or a living body.

S220 단계는 시선 검출 단계로서, 제1 제어부(110)는 입력 이미지에서 사용자의 시선을 검출한다.Step S220 is a gaze detection step, and the first controller 110 detects the gaze of the user from the input image.

S230 단계는 사용자 명령 확인 단계로서, 제1 제어부(110)는 사용자 명령이 수신되는지의 여부를 판단한다. Step S230 is a user command confirmation step, and the first control unit 110 determines whether a user command is received.

이러한 명령은 음성, 터치 또는 물리적인 키/버튼 입력, 사용자 제스쳐, 제1 전자 장치(100)의 모션, 사용자의 표정, 사용자의 입김, 뇌파 등 사용자의 의도를 전달하는 모든 수단을 통해 이루어질 수 있다.Such a command may be made through any means of transmitting the user's intention, such as voice, touch or physical key/button input, user gesture, motion of the first electronic device 100, user's expression, user's breath, brain wave, etc. .

예를 들어, 사용자는 "확대", "축소", "밝게" 등의 음성 명령을 입력할 수 있으며, 제1 제어부(110)는 마이크(162)를 통해 음성 명령을 수신할 수 있고, 시인성 높은 이미지를 확대, 축소 또는 밝게 하여 표시할 수 있다. 축소의 경우에, 제1 제어부(110)는 시인성 높은 이미지를 해당 객체보다 작게 표시하거나, 이미 표시되어 있는 시인성 높은 이미지를 축소하여 표시할 수 있다. 확대의 경우에도, 제1 제어부(110)는 이미 표시되어 있는 시인성 높은 이미지를 추가 확대하여 표시할 수 있다.For example, the user may input a voice command such as “enlarge”, “reduce”, “brighten”, and the like, and the first control unit 110 may receive a voice command through the microphone 162 and have high visibility. You can enlarge, reduce, or brighten the image to display it. In the case of reduction, the first controller 110 may display a highly visible image smaller than the corresponding object, or reduce and display an already displayed high visibility image. Even in the case of magnification, the first control unit 110 may further enlarge and display an already displayed image with high visibility.

예를 들어, 제1 제어부(110)는 터치 스크린(190)에 시인성 높은 이미지의 표시를 나타내는 버튼을 표시하거나, 물리적인 키들인 볼륨 증가 버튼(161f) 및 볼륨 감소 버튼(161g)에 "확대" 및 "축소" 기능을 맵핑할 수 있다. For example, the first control unit 110 displays a button indicating display of an image with high visibility on the touch screen 190 or "enlarges" on the volume up button 161f and the volume down button 161g, which are physical keys. and "collapse" functions.

예를 들어, 제2 제어부(200)는 제4 카메라(265)를 통해 미리 설정된 제스쳐가 검출되는지의 모니터링할 수 있다. 이러한 제스쳐의 예들은, 윈도우(280, 285)를 투과하여 보이는 객체를 손가락으로 가리키는 동작에 의한 주목 대상의 지정, 손가락의 핀치 동작(오므리거나 펴는 동작)을 통한 주목 대상의 확대 및 축소, 손가락을 전후로 움직이는 동작(손가락이 제2 전자 장치(200)에 가까워지거나 멀어지는 동작)에 의한 가상 시점의 이동을 포함한다. For example, the second controller 200 may monitor whether a preset gesture is detected through the fourth camera 265 . Examples of such gestures include designation of an object of interest by a gesture of pointing a finger at an object visible through the windows 280 and 285, enlarging and reducing the object of interest through a pinch operation of a finger (pinching or unfolding operation), and using a finger. This includes movement of a virtual viewpoint by a forward and backward movement (a movement of a finger moving closer to or away from the second electronic device 200 ).

예를 들어, 사용자는 제1 전자 장치(100)를 전후로 움직이거나, 기울이는 동작을 취할 수 있으며, 제1 제어부(110)는 제1 센서 모듈(170)을 통해 제1 전자 장치(100)의 움직임을 감지할 수 있다. 제1 제어부(110)는 제1 전자 장치(100)가 전방으로(즉, 사용자와 대면하는 방향) 이동하거나 기울어지는 경우에 시인성 높은 이미지를 확대하여 표시하고, 제1 전자 장치(100)가 후방으로(즉, 사용자와 멀어지는 방향) 이동하거나 기울어지는 경우에 시인성 높은 이미지를 축소하여 표시할 수 있다. For example, the user may move the first electronic device 100 back and forth or take a tilting motion, and the first control unit 110 moves the first electronic device 100 through the first sensor module 170 . can detect When the first electronic device 100 moves forward (ie, in a direction facing the user) or tilts, the first controller 110 enlarges and displays an image with high visibility, and the first electronic device 100 moves the first electronic device 100 backward. When moving or tilting toward (ie, a direction away from the user), an image with high visibility may be reduced and displayed.

예를 들어, 제1 제어부(110)는 사용자가 얼굴을 찌푸리는 정도에 따라 시인성이 높은 이미지의 확대 정도를 결정할 수 있다. 또는, 이미 시인성이 높은 이미지가 표시되어 있는 경우에, 제1 제어부(110)는 사용자가 얼굴을 더 찌푸리면 시인성이 높은 이미지를 추가 확대하고, 찌푸린 얼굴을 풀면 시인성이 높은 이미지를 축소할 수 있다. For example, the first controller 110 may determine the degree of magnification of the highly visible image according to the degree to which the user frowns. Alternatively, when an image with high visibility is already displayed, the first control unit 110 may further enlarge an image with high visibility when the user frowns more, and reduce the image with high visibility when the user frowns. .

제2 제어부(290)는 얼굴을 찌푸리는 정도에 따라 가상 시점의 위치를 결정하거나, 이미 시인성이 높은 이미지가 표시되어 있는 경우에, 제2 제어부(290)는 사용자가 얼굴을 더 찌푸리면 가상 시점을 보다 가깝게 또는 보다 멀리 이동시킬 수 있다. The second control unit 290 determines the location of the virtual viewpoint according to the degree of frown, or when an image with high visibility is already displayed, the second control unit 290 selects the virtual viewpoint when the user frowns more. It can be moved closer or farther away.

제1 제어부(110)는 사용자 명령을 수신한 경우에 S240 단계를 수행하고, 사용자 명령을 수신하지 못한 경우에 사용자 명령의 수신 여부를 주기적 또는 연속적으로 모니터링한다.The first control unit 110 performs step S240 when receiving the user command, and periodically or continuously monitors whether the user command is received when the user command is not received.

S240 단계는 주목 대상/영역 검출 단계로서, 제1 제어부(110)는 사용자의 시선과 상면이 교차하는 영역(즉, 주목 영역)을 확인하고, 주목 영역에 위치하는 객체를 검출한다.Step S240 is a target/area detection step, wherein the first controller 110 checks a region (ie, a region of interest) where the user's gaze and the upper surface intersect, and detects an object located in the region of interest.

S250 단계는 이미지 검색 및 표시 단계로서, 제1 제어부(110)는 주목 대상에 대응하는 시인성 높은 이미지를 검색하고, 검색된 이미지를 표시한다. 이때, 제1 제어부(110)는 S230 단계의 사용자 명령에 따라 검색된 이미지를 표시할 수 있다. Step S250 is an image search and display step, in which the first controller 110 searches for an image with high visibility corresponding to a target of interest and displays the searched image. In this case, the first control unit 110 may display the searched image according to the user command in step S230 .

도 23은 본 발명의 제3 예에 따른 시선 추적을 이용한 시인성 개선 방법을 나타내는 흐름도이다. 23 is a flowchart illustrating a method for improving visibility using eye tracking according to a third example of the present invention.

S310 단계는 사용자 명령 수신 단계로서, 제어부(110)는 음성, 터치 또는 물리적인 키/버튼 입력, 사용자 제스쳐, 제1 전자 장치(100)의 모션, 사용자의 표정, 사용자의 입김, 뇌파 등 사용자의 의도를 전달하는 임의의 수단을 통해 사용자 명령을 수신한다. Step S310 is a user command receiving step, and the control unit 110 controls the user's voice, touch or physical key/button input, user gesture, motion of the first electronic device 100, user's expression, user's breath, brain wave, etc. Receive user commands through any means of communicating intent.

S320 단계는 사용자 검출 단계로서, 제1 제어부(110)는 제1 카메라(151) 또는 제1 생체 센서(171)를 통해 사용자를 검출한다.Step S320 is a user detection step, wherein the first controller 110 detects a user through the first camera 151 or the first biometric sensor 171 .

S330 단계는 시선 검출 단계로서, 제1 제어부(110)는 입력 이미지에서 사용자의 시선을 검출한다.Step S330 is a gaze detection step, wherein the first controller 110 detects the gaze of the user from the input image.

S340 단계는 주목 대상/영역 검출 단계로서, 제1 제어부(110)는 사용자의 시선과 상면이 교차하는 영역(즉, 주목 영역)을 확인하고, 주목 영역에 위치하는 객체를 검출한다.Step S340 is a target/area detection step, wherein the first controller 110 identifies a region (ie, a region of interest) where the user's gaze and the upper surface intersect, and detects an object located in the region of interest.

S350 단계는 이미지 검색 및 표시 단계로서, 제1 제어부(110)는 주목 대상에 대응하는 시인성 높은 이미지를 검색하고, 검색된 이미지를 표시한다. 이때, 제1 제어부(110)는 S310 단계의 사용자 명령에 따라 검색된 이미지를 표시할 수 있다. Step S350 is an image search and display step, wherein the first controller 110 searches for an image with high visibility corresponding to a target of interest and displays the searched image. In this case, the first control unit 110 may display the searched image according to the user command in step S310 .

전술한 예들에서, 화면을 표시하는 디스플레이 유닛의 대표적인 예로 터치 스크린을 예시하고 있으나, 터치 스크린 대신에 터치 감지 기능이 없는 액정표시장치(Liquid Crystal Display: LCD), 유기발광다이오드(Organic Light Emitting Diodes: OLED), LED 등과 같은 통상의 디스플레이 유닛 또는 투명 디스플레이를 사용할 수도 있다. In the above-described examples, a touch screen is exemplified as a representative example of a display unit displaying a screen, but instead of a touch screen, a liquid crystal display (LCD) without a touch sensing function, an organic light emitting diode (Organic Light Emitting Diodes: A conventional display unit such as OLED), LED, or the like, or a transparent display may be used.

또한, 제2 전자 장치(200)에 있어서, 제1 및 제2 윈도우(280, 285)는 디스플레이 유닛(들) 또는 투명 디스플레이로 볼 수 있다. Also, in the second electronic device 200 , the first and second windows 280 and 285 may be viewed as a display unit(s) or a transparent display.

본 발명의 실시 예들은 하드웨어, 소프트웨어 또는 하드웨어 및 소프트웨어의 조합의 형태로 실현 가능하다는 것을 알 수 있을 것이다. 이러한 임의의 소프트웨어는 예를 들어, 삭제 가능 또는 재기록 가능 여부와 상관없이, ROM 등의 저장 장치와 같은 휘발성 또는 비휘발성 저장 장치, 또는 예를 들어, RAM, 메모리 칩, 장치 또는 집적 회로와 같은 메모리, 또는 예를 들어 CD, DVD, 자기 디스크 또는 자기 테이프 등과 같은 광학 또는 자기적으로 기록 가능함과 동시에 기계(예를 들어, 컴퓨터)로 읽을 수 있는 저장 매체에 저장될 수 있다. 전자 장치 내에 포함될 수 있는 저장부는 본 발명의 실시 예들을 구현하는 지시들을 포함하는 프로그램 또는 프로그램들을 저장하기에 적합한 기계로 읽을 수 있는 저장 매체의 한 예임을 알 수 있을 것이다. 따라서, 본 발명은 본 명세서의 임의의 청구항에 기재된 장치 또는 방법을 구현하기 위한 코드를 포함하는 프로그램 및 이러한 프로그램을 저장하는 기계로 읽을 수 있는 저장 매체를 포함한다. 또한, 이러한 프로그램은 유선 또는 무선 연결을 통해 전달되는 통신 신호와 같은 임의의 매체를 통해 전자적으로 이송될 수 있고, 본 발명은 이와 균등한 것을 적절하게 포함한다.It will be appreciated that the embodiments of the present invention can be realized in the form of hardware, software, or a combination of hardware and software. Any such software, for example, whether erasable or rewritable, may contain a volatile or non-volatile storage device, such as a ROM, or a memory, such as, for example, RAM, a memory chip, device or integrated circuit. , or an optically or magnetically recordable storage medium such as a CD, DVD, magnetic disk, or magnetic tape, for example, and a machine (eg, computer) readable storage medium. It will be appreciated that the storage unit that may be included in the electronic device is an example of a machine-readable storage medium suitable for storing a program or programs including instructions for implementing embodiments of the present invention. Accordingly, the present invention includes a program including code for implementing the apparatus or method described in any claim of the present specification, and a machine-readable storage medium storing such a program. Further, such a program may be transmitted electronically over any medium, such as a communication signal transmitted over a wired or wireless connection, and the present invention suitably includes the equivalent thereof.

상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.Although specific embodiments have been described in the above description of the present invention, various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be defined by the described embodiments, but should be defined by the claims and equivalents of the claims.

100: 전자 장치, 110: 제어부, 120: 통신 모듈, 130: 서브 통신 모듈, 140: 멀티미디어 모듈, 150: 카메라 모듈, 157: GPS 모듈, 160: 입/출력 모듈, 168: 입력 유닛, 170; 센서 모듈, 175: 저장부, 180: 전원 공급부, 190: 터치스크린, 195: 터치스크린 컨트롤러100: electronic device, 110: controller, 120: communication module, 130: sub communication module, 140: multimedia module, 150: camera module, 157: GPS module, 160: input/output module, 168: input unit, 170; Sensor module, 175: storage, 180: power supply, 190: touch screen, 195: touch screen controller

Claims (19)

헤드 마운티드 디스플레이(head mounted display, HMD) 장치로서,
디스플레이;
사용자가 상기 HMD 장치를 착용하는 경우, 상기 사용자의 눈으로 향하도록 상기 HMD 장치의 내면에 제공되는 적어도 하나의 제 1 카메라;
인스트럭션(instruction)들을 저장하는 적어도 하나의 메모리; 및
적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는,
상기 HMD 장치의 상기 사용자의 시선 정보(gaze information)를 획득하고,
상기 시선 정보에 기반하여, 제 1 오브젝트를 선택하고,
상기 제 1 오브젝트를 식별하기 위한 제 1 정보를 획득하고,
상기 HMD 장치와 연관된 자세(pose)와 연관된 제 2 정보를 획득하고,
외부 전자 장치로 상기 제 1 정보 및 상기 제 2 정보를 송신하고,
상기 외부 전자 장치로부터, 상기 제 1 오브젝트에 대응하는, 상기 외부 전자 장치에 저장된, 제 2 오브젝트를 수신하고, 상기 제 2 오브젝트는 상기 외부 전자 장치에 의해 설정된 시인성을 가지고,
상기 제 2 오브젝트를 표시하도록 상기 디스플레이를 제어하도록 상기 인스트럭션들을 실행하도록 설정된,
HMD 장치.
A head mounted display (HMD) device comprising:
display;
at least one first camera provided on an inner surface of the HMD device to face the user's eyes when the user wears the HMD device;
at least one memory storing instructions; and
at least one processor; including, wherein the at least one processor comprises:
Obtaining gaze information of the user of the HMD device,
Based on the gaze information, select a first object,
Obtaining first information for identifying the first object,
obtaining second information related to a pose associated with the HMD device;
transmitting the first information and the second information to an external electronic device;
receive, from the external electronic device, a second object corresponding to the first object and stored in the external electronic device, wherein the second object has visibility set by the external electronic device;
configured to execute the instructions to control the display to display the second object;
HMD device.
제 1 항에 있어서, 상기 제 1 오브젝트의 시인성 및 상기 제 2 오브젝트의 시인성은 각각 해상도, 선명도, 또는 밝기 중 적어도 하나를 포함하는, HMD 장치.
The HMD device of claim 1 , wherein the visibility of the first object and the visibility of the second object include at least one of resolution, sharpness, and brightness, respectively.
제 1 항에 있어서, 상기 HMD 장치의 외면에 구비되는 적어도 하나의 제 2 카메라를 더 포함하고,
상기 HMD 장치와 연관된 자세는 적어도 하나의 제 2 카메라와 관련된 포즈를 포함하는, HMD 장치.
According to claim 1, further comprising at least one second camera provided on the outer surface of the HMD device,
and the pose associated with the HMD device comprises a pose associated with at least one second camera.
제 1 항에 있어서, 상기 적어도 하나의 프로세서는,
제 1 오브젝트를 포함하는 복수의 오브젝트들을 표시하도록 디스플레이를 제어하고,
상기 HMD 장치의 상기 복수의 오브젝트들 중에서 상기 사용자가 응시하는 제 1 오브젝트를 식별하고,
외부 전자 장치로부터, 상기 제 1 오브젝트보다 시인성이 높은 상기 제 2 오브젝트를 수신하고,
상기 디스플레이에서 상기 복수의 오브젝트들이 사라지도록 제어하고,
상기 디스플레이에 복수의 오브젝트들이 표시되지 않는 동안 상기 제 2 오브젝트가 표시되도록 디스플레이를 제어하도록 상기 인스트럭션들을 실행하도록 설정된,
HMD 장치.
The method of claim 1 , wherein the at least one processor comprises:
Control the display to display a plurality of objects including the first object,
identify a first object that the user gazes at from among the plurality of objects of the HMD device;
Receive the second object having higher visibility than the first object from the external electronic device,
Control the plurality of objects to disappear from the display,
configured to execute the instructions to control a display such that the second object is displayed while a plurality of objects are not displayed on the display;
HMD device.
제 3 항에 있어서, 상기 적어도 하나의 프로세서는,
상기 제 1 오브젝트와 관련된 사용자 명령을 획득하고,
상기 사용자 명령과 연관된 제 3 정보를 상기 제 1 정보 및 상기 제 2 정보와 함께 상기 외부 전자 장치로 전송하고,
상기 사용자 명령에 따라 설정된 시인성이 높은 상기 제 2 오브젝트를 외부 전자 장치로부터 수신하도록 상기 인스트럭션들을 실행하도록 설정된,
HMD 장치.
The method of claim 3, wherein the at least one processor comprises:
obtain a user command related to the first object,
transmitting third information related to the user command together with the first information and the second information to the external electronic device;
set to execute the instructions to receive the second object having high visibility set according to the user command from an external electronic device;
HMD device.
제 5 항에 있어서, 상기 적어도 하나의 프로세서는,
상기 사용자 명령이 상기 제 1 오브젝트의 크기를 변경하는 명령인 것에 기반하여, 상기 외부 전자 장치로부터 크기가 변경된 상기 제 1 오브젝트를 상기 제 2 오브젝트로서 수신하도록 상기 인스트럭션들을 실행하도록 설정된,
HMD 장치.
The method of claim 5, wherein the at least one processor comprises:
configured to execute the instructions to receive the first object whose size has been changed from the external electronic device as the second object based on the user command being a command to change the size of the first object,
HMD device.
제 6 항에 있어서, 상기 사용자 명령은 음성 명령 또는 제스처 명령 중 적어도 하나를 포함하는, HMD 장치.
The HMD device of claim 6 , wherein the user command comprises at least one of a voice command or a gesture command.
제 1 항에 있어서, 센서;를 더 포함하고,
상기 적어도 하나의 프로세서는,
상기 센서를 이용하여 상기 HMD 장치의 주변 조도를 획득하고,
상기 획득된 주변 조도를 상기 외부 전자 장치로 전송하고,
상기 주변 조도가 제 1 조도인 것에 기초하여, 제 1 시인성을 갖는 제 3 오브젝트를 상기 제 2 오브젝트로서 수신하고,
상기 주변 조도가 제 2 조도인 것에 기초하여, 제 2 시인성을 갖는 제 4 오브젝트를 상기 제 2 오브젝트로서 수신하도록 상기 인스트럭션들을 실행하도록 설정된,
HMD 장치.
The method of claim 1, further comprising a sensor,
the at least one processor,
acquiring the ambient illuminance of the HMD device using the sensor;
transmitting the obtained ambient illuminance to the external electronic device;
receiving a third object having a first visibility as the second object based on the peripheral illuminance being the first illuminance;
configured to execute the instructions to receive a fourth object having a second visibility as the second object based on the ambient illuminance being the second illuminance;
HMD device.
제 1 항에 있어서,
상기 제 1 오브젝트는 2D 오브젝트이고, 상기 제 2 오브젝트는 3D 오브젝트인 HMD 장치.
The method of claim 1,
The first object is a 2D object, and the second object is a 3D object.
헤드 마운티드 디스플레이(head mounted display, HMD) 장치의 동작 방법으로서,
상기 HMD 장치의 상기 사용자의 시선 정보(gaze information)를 획득하는 동작;
상기 시선 정보에 기반하여, 제 1 오브젝트를 선택하는 동작;
상기 제 1 오브젝트를 식별하기 위한 제 1 정보를 획득하는 동작;
상기 HMD 장치와 연관된 자세(pose)와 연관된 제 2 정보를 획득하는 동작;
외부 전자 장치로 상기 제 1 정보 및 상기 제 2 정보를 송신하는 동작;
상기 외부 전자 장치로부터, 상기 제 1 오브젝트에 대응하는, 상기 외부 전자 장치에 저장된, 제 2 오브젝트를 수신하는 동작;을 포함하고, 상기 제 2 오브젝트는 상기 외부 전자 장치에 의해 설정된 시인성을 가지고,
상기 제 2 오브젝트를 표시하는 동작;을 포함하는,
동작 방법.
A method of operating a head mounted display (HMD) device, comprising:
obtaining gaze information of the user of the HMD device;
selecting a first object based on the gaze information;
obtaining first information for identifying the first object;
obtaining second information related to a pose associated with the HMD device;
transmitting the first information and the second information to an external electronic device;
receiving, from the external electronic device, a second object corresponding to the first object and stored in the external electronic device, wherein the second object has a visibility set by the external electronic device,
Including; displaying the second object;
how it works.
제 10 항에 있어서, 상기 제 1 오브젝트의 시인성 및 상기 제 2 오브젝트의 시인성은 각각 해상도, 선명도, 또는 밝기 중 적어도 하나를 포함하는, 동작 방법.
The method of claim 10 , wherein the visibility of the first object and the visibility of the second object include at least one of resolution, sharpness, and brightness, respectively.
제 10 항에 있어서, 상기 HMD 장치의 외면에 구비되는 적어도 하나의 제 2 카메라를 더 포함하고,
상기 HMD 장치와 연관된 자세는 적어도 하나의 제 2 카메라와 관련된 포즈를 포함하는, 동작 방법.
11. The method of claim 10, further comprising at least one second camera provided on the outer surface of the HMD device,
and the pose associated with the HMD device comprises a pose associated with at least one second camera.
제 10 항에 있어서,
제 1 오브젝트를 포함하는 복수의 오브젝트들을 표시하는 동작;
상기 HMD 장치의 상기 복수의 오브젝트들 중에서 상기 사용자가 응시하는 상기 제 1 오브젝트를 식별하는 동작;
외부 전자 장치로부터, 상기 제 1 오브젝트보다 시인성이 높은 상기 제 2 오브젝트를 수신하는 동작;
상기 HMD 장치의 디스플레이에서 상기 복수의 오브젝트들이 사라지도록 제어하는 동작;
상기 디스플레이에 복수의 오브젝트들이 표시되지 않는 동안 상기 제2 오브젝트가 표시하는 동작;을 더 포함하는,
동작 방법.
11. The method of claim 10,
displaying a plurality of objects including the first object;
identifying the first object that the user gazes at from among the plurality of objects of the HMD device;
receiving, from an external electronic device, the second object having a higher visibility than the first object;
controlling the plurality of objects to disappear from the display of the HMD device;
Displaying the second object while the plurality of objects are not displayed on the display; further comprising
how it works.
제 12 항에 있어서,
상기 제 1 오브젝트와 관련된 사용자 명령을 획득하는 동작;
상기 사용자 명령과 연관된 제 3 정보를 상기 제 1 정보 및 상기 제 2 정보와 함께 상기 외부 전자 장치로 전송하는 동작; 및
상기 사용자 명령에 따라 설정된 시인성이 높은 상기 제 2 오브젝트를 외부 전자 장치로부터 수신하는 동작;을 더 포함하는,
동작 방법.
13. The method of claim 12,
obtaining a user command related to the first object;
transmitting third information related to the user command together with the first information and the second information to the external electronic device; and
Receiving the second object having high visibility set according to the user command from an external electronic device; further comprising
how it works.
제 14 항에 있어서,
상기 사용자 명령이 상기 제 1 오브젝트의 크기를 변경하는 명령인 것에 기반하여, 상기 외부 전자 장치로부터 크기가 변경된 상기 제 1 오브젝트를 상기 제 2 오브젝트로서 수신하는 동작;을 더 포함하는,
동작 방법.
15. The method of claim 14,
Based on that the user command is a command to change the size of the first object, receiving the first object whose size has been changed from the external electronic device as the second object;
how it works.
제 15 항에 있어서, 상기 사용자 명령은 음성 명령 또는 제스처 명령 중 적어도 하나를 포함하는, 동작 방법.
The method of claim 15 , wherein the user command comprises at least one of a voice command or a gesture command.
제 10 항에 있어서,
상기 HMD 장치의 센서를 이용하여 상기 HMD 장치의 주변 조도를 획득하는 동작;
상기 획득된 주변 조도를 상기 외부 전자 장치로 전송하는 동작;
상기 주변 조도가 제 1 조도인 것에 기초하여, 제 1 시인성을 갖는 제 3 오브젝트를 상기 제 2 오브젝트로서 수신하는 동작; 및
상기 주변 조도가 제 2 조도인 것에 기초하여, 제 2 시인성을 갖는 제 4 오브젝트를 상기 제 2 오브젝트로서 수신하는 동작;을 더 포함하는,
동작 방법.
11. The method of claim 10,
acquiring ambient illuminance of the HMD device using a sensor of the HMD device;
transmitting the acquired ambient illuminance to the external electronic device;
receiving a third object having a first visibility as the second object based on the ambient illuminance being the first illuminance; and
receiving a fourth object having second visibility as the second object based on the ambient illuminance being the second illuminance;
how it works.
제 10 항에 있어서,
상기 제 1 오브젝트는 2D 오브젝트이고, 상기 제 2 오브젝트는 3D 오브젝트인, 동작 방법.
11. The method of claim 10,
wherein the first object is a 2D object and the second object is a 3D object.
서버로서,
데이터베이스; 및
적어도 하나의 프로세서;를 포함하고, 상기 적어도 하나의 프로세서는:
HMD(Head Mounted Device) 장치로부터 제 1 오브젝트를 식별하기 위한 제1 정보, 및 상기 HMD 장치와 연관된 자세와 연관된 제2 정보를 수신하고,
상기 제1 정보 및 상기 제2 정보에 기초하여, 상기 제 1 오브젝트에 대응하는 제 2 오브젝트를 상기 데이터베이스로부터 획득하고,
상기 데이터베이스에 저장된 상기 제 1 오브젝트에 대응하는 상기 제 2 오브젝트를 상기 HMD 장치로 전송하도록 인스트럭션들을 실행하도록 설정되고,
상기 제 2 오브젝트는 상기 서버에 의해 설정된 시인성을 갖는,
서버.
As a server,
database; and
at least one processor, comprising:
Receive first information for identifying a first object from a Head Mounted Device (HMD) device, and second information associated with a posture associated with the HMD device,
obtaining a second object corresponding to the first object from the database based on the first information and the second information;
configured to execute instructions to transmit the second object corresponding to the first object stored in the database to the HMD device;
The second object has visibility set by the server,
server.
KR1020210132884A 2020-09-18 2021-10-07 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device KR102473669B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210132884A KR102473669B1 (en) 2020-09-18 2021-10-07 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200120590A KR102312601B1 (en) 2020-04-01 2020-09-18 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR1020210132884A KR102473669B1 (en) 2020-09-18 2021-10-07 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200120590A Division KR102312601B1 (en) 2020-04-01 2020-09-18 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Publications (2)

Publication Number Publication Date
KR20210125465A true KR20210125465A (en) 2021-10-18
KR102473669B1 KR102473669B1 (en) 2022-12-06

Family

ID=78271527

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210132884A KR102473669B1 (en) 2020-09-18 2021-10-07 Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device

Country Status (1)

Country Link
KR (1) KR102473669B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174578A (en) * 2001-12-07 2003-06-20 Nikon Corp Electronic camera, image display device and image display method
JP2009192448A (en) * 2008-02-18 2009-08-27 Tama Art Univ Information display device and information providing system
KR20110118530A (en) * 2010-04-23 2011-10-31 주식회사 비즈모델라인 System and device for displaying of video data
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174578A (en) * 2001-12-07 2003-06-20 Nikon Corp Electronic camera, image display device and image display method
JP2009192448A (en) * 2008-02-18 2009-08-27 Tama Art Univ Information display device and information providing system
KR20110118530A (en) * 2010-04-23 2011-10-31 주식회사 비즈모델라인 System and device for displaying of video data
US20130050432A1 (en) * 2011-08-30 2013-02-28 Kathryn Stone Perez Enhancing an object of interest in a see-through, mixed reality display device

Also Published As

Publication number Publication date
KR102473669B1 (en) 2022-12-06

Similar Documents

Publication Publication Date Title
US11366516B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11995774B2 (en) Augmented reality experiences using speech and text captions
US9857589B2 (en) Gesture registration device, gesture registration program, and gesture registration method
KR102159767B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US11500510B2 (en) Information processing apparatus and non-transitory computer readable medium
US11195341B1 (en) Augmented reality eyewear with 3D costumes
CN117916777A (en) Hand-made augmented reality endeavor evidence
US20210406542A1 (en) Augmented reality eyewear with mood sharing
KR102312601B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR102473669B1 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
KR101720607B1 (en) Image photographing apparuatus and operating method thereof
WO2022269753A1 (en) Information processing system, information processing device, and image display device
WO2022208797A1 (en) Information display device and method
US20240036336A1 (en) Magnified overlays correlated with virtual markers

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant