KR102216020B1 - Method for providing user interface using gaze recognition and user apparatus using the same - Google Patents

Method for providing user interface using gaze recognition and user apparatus using the same Download PDF

Info

Publication number
KR102216020B1
KR102216020B1 KR1020180144319A KR20180144319A KR102216020B1 KR 102216020 B1 KR102216020 B1 KR 102216020B1 KR 1020180144319 A KR1020180144319 A KR 1020180144319A KR 20180144319 A KR20180144319 A KR 20180144319A KR 102216020 B1 KR102216020 B1 KR 102216020B1
Authority
KR
South Korea
Prior art keywords
gaze
recognition
display
gaze position
user
Prior art date
Application number
KR1020180144319A
Other languages
Korean (ko)
Other versions
KR20200059509A (en
Inventor
장수한
김유진
임승택
김상현
유현우
김형규
Original Assignee
네이버웹툰 유한회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버웹툰 유한회사 filed Critical 네이버웹툰 유한회사
Priority to KR1020180144319A priority Critical patent/KR102216020B1/en
Publication of KR20200059509A publication Critical patent/KR20200059509A/en
Application granted granted Critical
Publication of KR102216020B1 publication Critical patent/KR102216020B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 출원은 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말에 관한 것으로서, 본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법은, 시선 인식 센서를 이용하여, 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선인식단계; 및 상기 시선위치가 인식되면, 상기 디스플레이부의 설정영역 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하는 인식표시단계를 포함할 수 있다. The present application relates to a method of providing a gaze recognition interface and a user terminal therefor. The method of providing a gaze recognition interface of a user terminal according to an embodiment of the present invention uses a gaze recognition sensor, A gaze recognition step of recognizing a gaze position; And when the gaze position is recognized, a recognition display step of displaying a recognition display icon indicating that the gaze position is being recognized in a setting area of the display unit.

Description

시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말 {Method for providing user interface using gaze recognition and user apparatus using the same}Method for providing gaze recognition interface and user terminal therefor {Method for providing user interface using gaze recognition and user apparatus using the same}

본 출원은 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말에 관한 것으로서, 사용자의 시선인식여부와 인식된 시선위치를 표시할 수 있는 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말에 관한 것이다. The present application relates to a method of providing a gaze recognition interface and a user terminal therefor, and to a method of providing a gaze recognition interface capable of displaying whether or not the user's gaze is recognized and the recognized gaze position, and a user terminal therefor.

시선인식 기술은 눈동자의 움직임을 포착하여 사용자가 응시하는 지점을 추정하는 기술로, 정보 기술의 발전에 따라, 시선인식기술들은 다양한 분야에서 활용되고 있다. 예를들어, 광고 분야에서는 소비자들에게 광고 시안들을 보여주고 소비자들이 바라보는 위치에 대한 정보 및 바라보는 시간에 대한 정보를 수집함으로써, 사람들이 제품, 광고 모델, 회사 브랜드 중 어느 것을 많이 바라보는지 평가할 수 있다. 또한, 마케팅 분야에서는, 사람들에게 디바이스에 다수의 컨텐츠들을 제공하고, 사람들이 관심을 가지고 오래 바라보는 컨텐츠에 대해 사용자 선호도 점수를 높게 책정할 수 있다. The gaze recognition technology is a technology that captures the movement of the eyes and estimates the point at which the user gazes. With the development of information technology, gaze recognition technologies are being used in various fields. For example, in the field of advertising, it is possible to evaluate whether people are looking at products, advertising models, or company brands by showing advertisement proposals to consumers and collecting information about where and when they look. I can. In addition, in the marketing field, it is possible to provide a number of contents to a device to people, and set a high user preference score for contents that people watch for a long time with interest.

한편, 유무선 통신망을 이용한 정보 통신 기술은 소비자의 구매를 자극하는 새로운 기술 및 기능으로 인하여 짧은 기간에 대단히 빠른 성장을 하고 있다. 특히 휴대단말은 그 기술의 발달로 인하여 단순한 어플리케이션을 수행하는 단계를 넘어서서 사용자들의 요구에 맞는 다양한 어플리케이션들이 설치되고 있다. 이로 인해 사용자는 휴대 단말을 통하여 음성 정보, 문자 정보, 화상 정보, MP3(MPEG(Moving Picture Experts Group) layer 3), 게임 등을 이용할 수 있다.On the other hand, information communication technology using wired and wireless communication networks is growing very rapidly in a short period of time due to new technologies and functions that stimulate consumer purchase. In particular, due to the development of the technology, various applications that meet the needs of users are being installed beyond the step of performing simple applications. Accordingly, the user can use voice information, text information, image information, MP3 (Moving Picture Experts Group) layer 3 (MP3), games, and the like through a portable terminal.

다만, 휴대단말은 화면 크기의 제약으로 사용자가 터치입력 등을 입력하는데 어려움이 발생할 수 있으며, 이를 해결하기 위하여 시선인식기술을 휴대단말에 대한 입력방식으로 활용하는 방안을 고려할 수 있다.However, in the portable terminal, it may be difficult for the user to input a touch input due to the limitation of the screen size, and in order to solve this problem, a method of utilizing gaze recognition technology as an input method for the portable terminal may be considered.

본 출원은 사용자의 시선인식여부와, 시선인식시 인식된 시선위치를 사용자에게 직관적으로 제공할 수 있는 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말을 제공하고자 한다. The present application is to provide a method for providing a gaze recognition interface that can intuitively provide a user with a gaze recognition status and a gaze position recognized when gaze recognition, and a user terminal for the same.

본 출원은 사용자의 시선위치를 다양한 실시예로 표시할 수 있는 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말을 제공하고자 한다. The present application is to provide a method of providing a gaze recognition interface capable of displaying a user's gaze position in various embodiments, and a user terminal therefor.

본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법은, 시선 인식 센서를 이용하여, 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선인식단계; 및 상기 시선위치가 인식되면, 상기 디스플레이부의 설정영역 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하는 인식표시단계를 포함할 수 있다. According to an embodiment of the present invention, a method of providing a gaze recognition interface of a user terminal includes a gaze recognition step of recognizing a gaze position of a user positioned on a display unit using a gaze recognition sensor; And when the gaze position is recognized, a recognition display step of displaying a recognition display icon indicating that the gaze position is being recognized in a setting area of the display unit.

본 발명의 일 실시예에 의한 사용자 단말은, 디스플레이부; 상기 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선 인식 센서; 및 상기 시선위치가 인식되면, 상기 디스플레이부의 설정영역 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하도록 제어하는 제어부를 포함할 수 있다. A user terminal according to an embodiment of the present invention includes a display unit; A gaze recognition sensor for recognizing a gaze position of a user positioned on the display unit; And a control unit for controlling to display a recognition display icon indicating that the gaze position is being recognized in a setting area of the display unit when the gaze position is recognized.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above-described problem does not enumerate all the features of the present invention. Various features of the present invention and advantages and effects thereof may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 의한 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말에 의하면, 사용자 단말이 현재 사용자의 시선인식을 수행하는지 여부를 직관적으로 표시할 수 있다. 따라서, 사용자는 시선인식여부를 용이하게 확인할 수 있으며, 이를 고려하여 사용자 단말을 효율적으로 제어할 수 있다. According to the method for providing a gaze recognition interface and a user terminal therefor according to an embodiment of the present invention, whether or not the user terminal is currently performing gaze recognition of the user can be intuitively displayed. Therefore, the user can easily check whether the gaze is recognized, and in consideration of this, the user terminal can be efficiently controlled.

본 발명의 일 실시예에 의한 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말에 의하면, 사용자 단말이 인식한 시선위치를 사용자에게 다양한 실시예로 표시할 수 있다. 따라서, 사용자는 인식 중인 자신의 시선위치를 직관적으로 확인할 수 있으며, 사용자 단말에 시선인식을 활용한 다양한 입력을 용이하게 인가할 수 있다. According to the method for providing a gaze recognition interface and a user terminal therefor according to an embodiment of the present invention, the gaze position recognized by the user terminal may be displayed to the user in various embodiments. Accordingly, the user can intuitively check his gaze position being recognized, and can easily apply various inputs using gaze recognition to the user terminal.

다만, 본 발명의 실시예들에 따른 시선인식 인터페이스 제공방법 및 이를 위한 사용자 단말이 달성할 수 있는 효과는 이상에서 언급한 것들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the method for providing a gaze recognition interface according to embodiments of the present invention and the effects that can be achieved by the user terminal therefor are not limited to those mentioned above, and other effects not mentioned are the present invention from the following description. It will be clearly understood by those of ordinary skill in the art to which it belongs.

도1은 본 발명의 일 실시예에 의한 시선인식 인터페이스 제공 시스템을 나타내는 개략도이다.
도2는 본 발명의 일 실시예에 의한 사용자 단말을 나타내는 블록도이다.
도3은 본 발명의 일 실시예에 의한 사용자 단말의 시선인식을 나타내는 개략도이다.
도4 내지 도8은 본 발명의 일 실시예에 의한 시선인식 인터페이스를 나타내는 개략도이다.
도9는 본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법을 나타내는 순서도이다.
1 is a schematic diagram showing a system for providing a gaze recognition interface according to an embodiment of the present invention.
2 is a block diagram showing a user terminal according to an embodiment of the present invention.
3 is a schematic diagram showing gaze recognition of a user terminal according to an embodiment of the present invention.
4 to 8 are schematic diagrams showing a gaze recognition interface according to an embodiment of the present invention.
9 is a flowchart illustrating a method of providing a gaze recognition interface of a user terminal according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 즉, 본 발명에서 사용되는 '부'라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '부'는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '부'들로 결합되거나 추가적인 구성요소들과 '부'들로 더 분리될 수 있다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. That is, the term'unit' used in the present invention means a hardware component such as software, FPGA or ASIC, and the'unit' performs certain roles. However,'part' is not limited to software or hardware. The'unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example,'unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Includes subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays and variables. The functions provided in the components and'units' may be combined into a smaller number of components and'units', or may be further divided into additional components and'units'.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all changes included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.

도1은 본 발명의 일 실시예에 의한 시선인식 인터페이스 제공 시스템을 나타내는 개략도이다. 1 is a schematic diagram showing a system for providing a gaze recognition interface according to an embodiment of the present invention.

도1을 참조하면 본 발명의 일 실시예에 의한 시선인식 인터페이스 제공 시스템은, 사용자 단말(100) 및 서비스 서버(200)를 포함할 수 있다. Referring to FIG. 1, a system for providing a gaze recognition interface according to an embodiment of the present invention may include a user terminal 100 and a service server 200.

이하 도1을 참조하여 본 발명의 일 실시예에 의한 시선인식 인터페이스 제공 시스템을 설명한다. Hereinafter, a system for providing a gaze recognition interface according to an embodiment of the present invention will be described with reference to FIG. 1.

사용자 단말(100)은 다양한 종류의 어플리케이션들을 실행할 수 있으며, 실행 중인 어플리케이션을 시각이나 청각 등으로 표시하여 사용자에게 제공할 수 있다. 사용자 단말(100)은 어플리케이션을 시각적으로 표시하기 위한 디스플레이부를 포함할 수 있으며, 사용자의 입력을 인가받는 입력부, 통신부, 적어도 하나의 프로그램이 저장된 메모리 및 프로세서를 포함할 수 있다. The user terminal 100 may execute various types of applications, and may display the running application in visual or auditory manner and provide it to the user. The user terminal 100 may include a display unit for visually displaying an application, and may include an input unit receiving user input, a communication unit, a memory storing at least one program, and a processor.

사용자 단말(100)은 스마트폰, 태블릿 PC 등의 이동 단말기일 수 있으며, 실시예에 따라서는 데스크탑 등의 고정형 장치도 포함될 수 있다. 여기서, 사용자 단말(100)에는 휴대폰, 스마트 폰(Smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The user terminal 100 may be a mobile terminal such as a smart phone or a tablet PC, and according to embodiments, a fixed device such as a desktop may also be included. Here, the user terminal 100 includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistants (PDA), a portable multimedia player (PMP), a slate PC, and a tablet. PC (tablet PC), ultrabook (ultrabook), wearable device (wearable device, for example, a watch-type terminal (smartwatch), glass-type terminal (smart glass), HMD (head mounted display)) and the like may be included.

사용자 단말(100)은 앱 스토어(App store) 또는 플레이 스토어(play store) 등에 접속하여, 다양한 어플리케이션들을 다운로드받아 설치할 수 있다. 실시예에 따라서는 서비스 서버(200) 또는 타 기기(미도시)와의 유선 또는 무선 통신을 통하여 다운로드받는 것도 가능하다. The user terminal 100 may access an App store or a play store to download and install various applications. Depending on the embodiment, it may be downloaded through wired or wireless communication with the service server 200 or other devices (not shown).

여기서, 어플리케이션은 온라인에서 제공되는 웹툰이나 게임, 뉴스, 이미지, 오디오, 동영상 등의 컨텐츠를 출력하는 웹 브라우저(web browser) 어플리케이션이나, 각각의 컨텐츠 제공을 위한 전용의 어플리케이션일 수 있다. Here, the application may be a web browser application that outputs content such as a webtoon, game, news, image, audio, or video provided online, or a dedicated application for providing each content.

실시예에 따라서는, 사용자 단말(100)이 사용자의 시선위치를 인식하는 기능을 제공할 수 있으며, 어플리케이션은 시선위치를 인식하는 기능을 이용하여 다양한 사용자 인터페이스를 제공할 수 있다. 예를들어, 사용자의 시선위치를 인식하여 클릭(click) 등의 동작을 수행하거나, 웹툰이나 전자책 컨텐츠 등을 제공하는 어플리케이션의 경우, 사용자의 시선인식을 통하여 자연스러운 페이지 스크롤, 페이지 넘김 동작 등을 수행할 수 있다. 이 경우, 사용자는 다른 동작 등을 취하는 등 방해받지 않고 컨텐츠에 집중할 수 있으며, 기존의 터치입력 등을 대체하는 새로운 사용자 경험을 제공하는 것이 가능하다. Depending on the embodiment, the user terminal 100 may provide a function of recognizing the user's gaze position, and the application may provide various user interfaces using a function of recognizing the gaze position. For example, in the case of an application that recognizes the user's gaze position and performs an action such as clicking, or provides webtoon or e-book content, natural page scrolling and page turning are performed through the user's gaze recognition. Can be done. In this case, the user can concentrate on the content without being disturbed, such as taking other actions, etc., and it is possible to provide a new user experience that replaces the existing touch input.

한편, 사용자 단말(100)은 통신 네트워크를 통하여 서비스 서버(10)와 연결될 수 있다. 여기서, 통신 네트워크는 유선 네트워크와 무선 네트워크를 포함할 수 있으며, 구체적으로, 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등 다양한 네트워크를 포함할 수 있다. 또한, 통신 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)을 포함할 수도 있다. 다만, 본 발명에 따른 통신 네트워크는 상기 열거된 네트워크에 국한되지 않으며, 공지의 무선 데이터 네트워크, 공지의 전화 네트워크, 공지의 유선 또는 무선 텔레비전 네트워크 등을 포함할 수 있다.Meanwhile, the user terminal 100 may be connected to the service server 10 through a communication network. Here, the communication network may include a wired network and a wireless network, and specifically, various types of networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN). May include a network. Further, the communication network may include a well-known World Wide Web (WWW). However, the communication network according to the present invention is not limited to the networks listed above, and may include a known wireless data network, a known telephone network, a known wired or wireless television network, and the like.

서비스 서버(200)는 어플리케이션을 통하여 사용자 단말(100)과 연결될 수 있으며, 사용자 단말(100)의 요청에 대응하여 웹툰이나 게임, 뉴스, 이미지, 오디오, 동영상 등 다양한 컨텐츠들을 제공할 수 있다. The service server 200 may be connected to the user terminal 100 through an application, and may provide various contents such as webtoons, games, news, images, audio, and video in response to a request of the user terminal 100.

도2는 본 발명의 일 실시예에 의한 사용자 단말을 나타내는 블록도이다. 2 is a block diagram showing a user terminal according to an embodiment of the present invention.

도2를 참조하면 본 발명의 일 실시예에 의한 사용자 단말(100)은 디스플레이부(110), 시선인식센서(120) 및 제어부(130)를 포함할 수 있다. Referring to FIG. 2, the user terminal 100 according to an embodiment of the present invention may include a display unit 110, a gaze recognition sensor 120, and a control unit 130.

이하, 도2를 참조하여 본 발명의 일 실시예에 의한 사용자 단말을 설명한다. Hereinafter, a user terminal according to an embodiment of the present invention will be described with reference to FIG. 2.

디스플레이부(110)는 사용자 단말(100) 내에서 실행 중인 어플리케이션 또는 컨텐츠들을 표시할 수 있으며, 사용자는 디스플레이부(110)를 통하여 어플리케이션 또는 컨텐츠를 시각적으로 확인할 수 있다. 여기서, 디스플레이부(110)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플랙시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 등으로 구현된 것일 수 있다. 다만, 본 발명의 내용은 이에 한정되는 것은 아니며, 이외에도 다양한 방식으로 디스플레이부(110)를 구현할 수 있다. The display unit 110 may display applications or contents running in the user terminal 100, and the user may visually check the application or contents through the display unit 110. Here, the display unit 110 is a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, 3 It may be implemented as a 3D display, an electrophoretic display, or the like. However, the content of the present invention is not limited thereto, and the display unit 110 may be implemented in various ways.

실시예에 따라서는, 디스플레이부(110)에 터치패널(미도시)이 포함될 수 있으며, 터치패널은 전자펜 또는 사용자의 신체 일부를 이용한 터치, 제스쳐 등을 입력으로 수신할 수 있다. 터치패널은 정전식, 감압식, 적외선 방식 등으로 구현할 수 있으며, 실시예에 따라서는 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 더 포함하는 것도 가능하다. 압력센서는 터치패널과 일체형으로 구현되거나, 터치 패널과는 별도의 하나 이상의 센서로 구현될 수 있다. Depending on the embodiment, a touch panel (not shown) may be included in the display unit 110, and the touch panel may receive a touch or a gesture using an electronic pen or a user's body part as an input. The touch panel may be implemented in a capacitive type, a pressure sensitive type, an infrared type, or the like, and may further include a pressure sensor capable of measuring the intensity of a pressure for a user's touch according to embodiments. The pressure sensor may be implemented integrally with the touch panel, or may be implemented as one or more sensors separate from the touch panel.

시선인식센서(120)는 디스플레이부(110) 상에 위치하는 사용자의 시선위치를 인식할 수 있다. 도3에 도시한 바와 같이, 시선인식센서(120)는 사용자의 눈동자를 포함하는 영상을 획득할 수 있으며, 이후 영상으로부터 사용자의 눈동자 내에 외부 광원이 맺히는 위치를 판별할 수 있다. 이 경우, 외부 광원의 위치와 눈동자 내에 외부 광원이 맺히는 위치 사이의 상관관계를 이용하여, 사용자의 동공 중심의 위치를 파악할 수 있다. 여기서, 동공 중심의 연장선이 디스플레이부(110)와 만나는 위치가 사용자의 시선위치에 해당하므로, 사용자의 동공 중심의 위치로부터 사용자의 시선위치를 인식하는 것이 가능하다. 시선인식센서(120)는 일반 카메라 또는 적외선 카메라 등으로 구현할 수 있으나, 이에 한정되는 것은 아니며, 실시예에 따라 다양한 종류의 센서나 알고리즘 등으로 구현할 수 있다. The gaze recognition sensor 120 may recognize the gaze position of the user located on the display unit 110. As shown in FIG. 3, the gaze recognition sensor 120 may acquire an image including the user's pupils, and then, from the image, may determine a location where an external light source is formed in the user's pupil. In this case, by using the correlation between the location of the external light source and the location of the external light source in the pupil, the location of the user's pupil center can be determined. Here, since the location where the extension line of the pupil center meets the display unit 110 corresponds to the user's gaze location, it is possible to recognize the user's gaze location from the location of the user's pupil center. The gaze recognition sensor 120 may be implemented with a general camera or an infrared camera, but is not limited thereto, and may be implemented with various types of sensors or algorithms according to embodiments.

시선인식센서(120)는 제어부(130)에 의하여 동작여부가 결정될 수 있으며, 시선인식센서(120)에서 인식한 시선위치는 제어부(130)로 제공될 수 있다. 실시예에 따라서는, 시선인식센서(120)가 사용자의 눈동자를 촬영한 영상 등 측정정보를 제어부로 전송하면, 제어부(130)에서 측정정보를 이용하여 직접 시선위치를 연산하는 것도 가능하다. Whether the gaze recognition sensor 120 is operated may be determined by the controller 130, and the gaze position recognized by the gaze recognition sensor 120 may be provided to the controller 130. Depending on the embodiment, when the gaze recognition sensor 120 transmits measurement information, such as an image of a user's pupils, to the controller, the controller 130 may directly calculate the gaze position using the measurement information.

제어부(130)는 사용자 단말(100)의 전반적인 동작을 제어할 수 있으며, 실시예에 따라서는 시선인식센서(120)에서 인식한 사용자의 시선위치를 이용하여, 다양한 시선인식 인터페이스를 제공할 수 있다. The controller 130 may control the overall operation of the user terminal 100, and according to an embodiment, various gaze recognition interfaces may be provided using the user's gaze position recognized by the gaze recognition sensor 120. .

구체적으로, 제어부(130)는 디스플레이부(110)의 설정영역 내에 시선위치가 인식 중임을 알리는 인식표시아이콘을 표시하도록 제어할 수 있다. 예를들어, 사용자가 스마트폰 등의 사용자 단말(100)을 사용하는 경우, 사용자 단말(100)은 사용자가 손가락을 이용하여 인가하는 터치입력과, 사용자의 시선인식을 통한 시선입력을 동시에 입력받을 수 있다. 다만, 사용자는 현재 시선인식 중임을 인지하지 못할 수 있으며, 이 경우 터치입력시 사용자의 손가락이 디스플레이부(110)를 가리는 등 시선인식이 정확하게 수행되지 않을 수 있다. 이를 방지하기 위하여, 제어부(130)는 디스플레이부(110) 상에 인식표시아이콘을 표시함으로써, 사용자가 현재 시선위치가 인식 중임을 용이하게 확인하도록 할 수 있다. Specifically, the control unit 130 may control to display a recognition display icon indicating that the gaze position is being recognized in the setting area of the display unit 110. For example, when a user uses a user terminal 100 such as a smartphone, the user terminal 100 receives a touch input applied by the user using a finger and a gaze input through the user's gaze recognition. I can. However, the user may not be able to recognize that gaze is currently being recognized, and in this case, gaze recognition may not be accurately performed, such as the user's finger covering the display unit 110 during a touch input. In order to prevent this, the controller 130 may display a recognition display icon on the display unit 110 so that the user can easily confirm that the current gaze position is being recognized.

즉, 도4에 도시한 바와 같이, 제어부(130)는 설정영역(a) 내에 인식표시아이콘(b)을 표시하여, 현재 사용자 단말(100)이 시선인식 중임을 알릴 수 있다. 여기서, 설정영역(a)은 도4(a)에 도시한 바와 같이, 디스플레이부(110)의 상단에 표시되는 상태표시바(status bar)일 수 있으며, 인식표시아이콘(b)은 상태표시바 내에 위치할 수 있다. 또한, 도4(b)에 도시한 바와 같이, 설정영역(a)을 상태표시바 이외에 디스플레이부(110) 내의 임의의 영역에 설정하고, 설정영역(a) 내에 인식표시아이콘(b)을 표시하는 것도 가능하다. That is, as shown in FIG. 4, the controller 130 may indicate that the user terminal 100 is currently recognizing the gaze by displaying the recognition display icon b in the setting area a. Here, the setting area (a) may be a status bar displayed on the top of the display unit 110, as shown in Fig. 4(a), and the recognition display icon (b) is a status display bar. Can be located within. In addition, as shown in Fig. 4(b), the setting area (a) is set in an arbitrary area in the display unit 110 other than the status display bar, and the recognition display icon (b) is displayed in the setting area (a). It is also possible to do.

한편, 시선인식센서(120)에 의한 시선인식은 사용자 단말(100)과 사용자의 눈동자 사이에 위치하는 사용자의 손, 팔 등의 신체부위나 다른 물체 등에 의하여 방해받을 수 있다. 이 경우 시선인식센서(120)는 시선인식에 실패하여 시선인식을 중단할 수 있다. 또는, 사용자가 스스로 시선인식 기능을 중단하고자 할 수 있다. 이와 같이, 시선위치의 인식에 실패하거나, 사용자로부터 시선인식중단요청을 입력받으면, 제어부(130)는 설정영역(a)에서 인식표시아이콘(b)을 제거할 수 있다. 즉, 사용자는 설정영역(a) 내의 인식표시아이콘(b) 유무를 확인하는 방식으로, 현재 사용자 단말(100)이 시선인식을 수행하고 있는지를 명확하게 인식할 수 있다. On the other hand, gaze recognition by the gaze recognition sensor 120 may be disturbed by a body part such as a user's hand or arm or other objects positioned between the user terminal 100 and the user's eyes. In this case, the gaze recognition sensor 120 may stop gaze recognition because gaze recognition fails. Alternatively, the user may want to stop the gaze recognition function by himself. In this way, when recognition of the gaze position fails or a request for stopping gaze recognition is received from the user, the controller 130 may remove the recognition display icon b from the setting area (a). That is, the user can clearly recognize whether the user terminal 100 is currently performing gaze recognition by checking the presence or absence of the recognition display icon (b) in the setting area (a).

추가적으로, 사용자로부터 시선인식요청을 수신하는 경우, 제어부(130)는 시선인식요청에 대응하는 제1 애니메이션을 디스플레이부(110) 상에 출력할 수 있다. 예를들어, 도5(a)에 도시한 바와 같이, 제1 애니메이션(c1)은 5, 4, 3, 2, 1, 0을 순차적으로 표시하는 카운트다운일 수 있으며, 제어부(130)는 카운트다운이 진행되는 동안 사용자에 대한 시선인식을 수행할 수 있다. 즉, 제어부(130)는 제1 애니메이션(c1)이 출력되는 동안 사용자의 시선을 추적하여 시선위치를 인식할 수 있다. 여기서, 제1 애니메이션(c1)은 카운트다운 이외에 진행상태표시바(progressive bar)가 순차적으로 채워지는 애니메이션 등 다양한 방법으로 구현할 수 있다. Additionally, when receiving a gaze recognition request from a user, the controller 130 may output a first animation corresponding to the gaze recognition request on the display unit 110. For example, as shown in Fig. 5(a), the first animation c1 may be a countdown that sequentially displays 5, 4, 3, 2, 1, and 0, and the controller 130 counts While down is in progress, gaze recognition for the user can be performed. That is, while the first animation c1 is being output, the control unit 130 may track the user's gaze and recognize the gaze position. Here, the first animation c1 may be implemented in various ways, such as an animation in which a progressive bar is sequentially filled in addition to the countdown.

또한, 실시예에 따라서는, 도5(b)에 도시한 바와 같이, 제1 애니메이션에 캐릭터 이미지(c2) 등 사용자의 시선을 끌수있는 요소를 더 포함하는 것도 가능하다. 즉, 제1 애니메이션을 이용하여 디스플레이부(110)의 특정지점에 사용자의 시선위치가 위치하도록 유도할 수 있다. 여기서, 특정지점은 시선인식센서(120)가 사용자의 시선위치를 인식하기 유리한 것으로 미리 설정된 위치에 해당한다. 예를들어, 특정지점은 디스플레이부(110)의 전체 영역 중에서 중심점이거나, 디스플레이부(110)에 포함된 꼭지점 중 어느 하나일 수 있다. 제어부(130)는 특정지점 상에 캐릭터나 기호, 문자 등을 표시하거나, 특정지점을 점멸하도록 하는 등의 방식으로 사용자의 시선을 유도할 수 있으며, 이를 통하여 시선인식센서(120)가 용이하게 사용자의 시선위치를 인식하도록 할 수 있다. In addition, depending on the embodiment, as shown in Fig. 5(b), it is possible to further include an element that can attract the user's attention such as a character image c2 in the first animation. That is, it is possible to induce the user's gaze position to be located at a specific point of the display unit 110 using the first animation. Here, the specific point corresponds to a preset position as advantageous for the gaze recognition sensor 120 to recognize the user's gaze position. For example, the specific point may be a central point among the entire area of the display unit 110 or one of vertices included in the display unit 110. The control unit 130 can induce the user's gaze in a manner such as displaying a character, symbol, character, etc. on a specific point, or flashing a specific point, through which the gaze recognition sensor 120 can easily You can recognize the position of the eye.

이후, 사용자의 시선위치가 인식되면, 제어부(130)는 사용자의 시선위치에 대응하는 위치를 디스플레이부(110) 상에 표시할 수 있다. 즉, 사용자가 자신의 시선위치가 디스플레이부(110) 상의 어디에 위치하는지를 직관적으로 인식할 수 있도록 디스플레이부(110)에 표시할 수 있다. 여기서, 제어부(130)는 다양한 실시예를 이용하여 사용자의 시선위치를 표시할 수 있다. Thereafter, when the user's gaze position is recognized, the controller 130 may display a location corresponding to the user's gaze position on the display unit 110. That is, the user may display the gaze position on the display unit 110 so as to intuitively recognize where his or her gaze position is located on the display unit 110. Here, the controller 130 may display the user's gaze position using various embodiments.

도6(a)를 참조하면, 제어부(130)는 인식된 시선위치에 대응하여, 디스플레이부(110) 상에 시선위치아이콘(d)를 표시하도록 할 수 있다. 즉, 사용자는 디스플레이부(110) 상에 위치하는 시선위치아이콘(d)을 이용하여 자신의 시선위치를 명확하게 인식할 수 있다. 이때, 제어부(130)는 시선위치아이콘(d)을 반투명하게 표시하여, 사용자가 디스플레이부(110)에 나타난 컨텐츠를 감상하는데 지장이 없도록 할 수 있다. 제어부(130)는 사용자의 시선위치의 변경에 따라, 시선위치아이콘(d)을 이동시킬 수 있다.Referring to FIG. 6A, the controller 130 may display the gaze position icon d on the display unit 110 in correspondence to the recognized gaze position. That is, the user can clearly recognize his/her gaze position by using the gaze position icon d located on the display unit 110. In this case, the controller 130 may display the gaze position icon d in a translucent manner, so that the user does not interfere with viewing the content displayed on the display unit 110. The controller 130 may move the gaze position icon d according to a change in the user's gaze position.

또한, 도6(b)에 도시한 바와 같이, 사용자의 시선위치 이동을 나타내는 제2 애니메이션(e)을 디스플레이부 상에 표시하는 방식으로 시선위치를 나타낼 수 있다. 예를들어, 시선위치가 이동하는 경로에 대응하여 물결이 치는 애니메이션이나 파동이 발생하는 애니메이션, 시선위치아이콘(d)의 잔상을 표시하는 애니메이션 등을 이용하여 시선위치 이동을 나타낼 수 있다. 여기서는, 시선위치아이콘(d)을 표시하는 경우를 예시하고 있으나, 실시예에 따라서는 시선위치아이콘(d)을 표시하지 않고 제2 애니메이션(e)만으로 사용자의 시선위치를 표시하는 것도 가능하다. In addition, as shown in FIG. 6(b), the gaze position may be indicated by displaying a second animation (e) indicating movement of the user's gaze position on the display unit. For example, the movement of the gaze position may be indicated by using an animation in which a wave occurs, an animation in which a wave occurs, or an animation displaying an afterimage of the gaze position icon d in response to a path in which the gaze position moves. Here, although the case of displaying the gaze position icon d is illustrated, it is possible to display the gaze position of the user only by the second animation e without displaying the gaze position icon d according to an embodiment.

구체적으로, 제어부(130)는 제1 레이어와 제2 레이어를 중첩하여 표시하는 방식으로 시선위치를 나타낼 수 있다. 즉, 제1 레이어 상에는 실행 중인 어플리케이션 또는 컨텐츠를 표시하고, 제2 레이어 상에는 사용자의 시선위치 변경에 대응하는 제2 애니메이션(e)을 표시할 수 있다. 이후, 제1 레이어와 제2 레이어를 중첩하게 되면, 디스플레이부(110) 상에는 어플리케이션 또는 컨텐츠 상에서 이동하는 사용자의 시선위치가 제2 애니메이션으로 표시될 수 있다. Specifically, the control unit 130 may indicate the gaze position by overlapping and displaying the first layer and the second layer. That is, a running application or content may be displayed on the first layer, and a second animation e corresponding to a change in the user's gaze position may be displayed on the second layer. Thereafter, when the first layer and the second layer are overlapped, the gaze position of a user moving on the application or content may be displayed on the display unit 110 as a second animation.

이외에도, 제어부(130)는 사용자의 시선위치에 근접한 객체들을 진동시키는 방식으로 사용자의 시선위치를 표시할 수 있다. 즉, 도7(a)에 도시한 바와 같이, 시선위치(f)가 디스플레이부(110)에 표시된 객체(g)들로부터 설정범위 내에 위치하면, 객체(g)들을 진동시켜 시선위치를 표시할 수 있다. 도7(a)에서는 시선위치(f)를 시선위치아이콘으로 표시하였으나 이는 설명의 편의를 위한 것으로서, 디스플레이부(110) 상에 시선위치아이콘을 표시하지 않고 객체들의 진동만으로 시선위치를 표시하는 것도 가능하다. In addition, the controller 130 may display the user's gaze position by vibrating objects close to the user's gaze position. That is, as shown in Fig. 7(a), when the gaze position f is located within the set range from the objects g displayed on the display unit 110, the objects g are vibrated to display the gaze position. I can. In Fig. 7(a), the gaze position f is displayed as a gaze position icon, but this is for convenience of explanation. Instead of displaying the gaze position icon on the display unit 110, it is also possible to display the gaze position only by vibration of objects It is possible.

또한, 실시예에 따라서는, 시선위치(f)가 객체(g)에 가까워질수록 객체(g)의 진동주기를 짧게 나타낼 수 있다. 즉, 사용자는 객체(g)의 진동주기를 통하여 자신의 시선위치(f)를 확인할 수 있다. 여기서, 제어부(130)는 사용자가 특정 객체(g)에 시선위치를 일정시간 이상 위치하는 등의 경우에는 해당 객체(g)를 선택한 것으로 처리할 수 있으며, 해당 객체(g)에 연결된 페이지로 이동하는 등 대응하는 동작을 수행할 수 있다. In addition, according to an exemplary embodiment, as the gaze position f approaches the object g, the vibration period of the object g may be shortened. That is, the user can check his/her gaze position f through the vibration period of the object g. Here, in the case where the user positions the gaze position on a specific object g for a predetermined time or longer, the control unit 130 may process the object g as selected, and move to a page connected to the object g. You can perform a corresponding operation such as.

한편, 객체들이 복수개 위치하는 경우에는, 시선위치(f)와 가까운 객체(g)의 진동주기를 상대적으로 더 짧게 표시할 수 있다. 예를들어, 시선위치(f)와 객체(g)들 사이의 거리에 비례하여 진동주기를 설정하거나, 실시예에 따라서는, 시선위치(f)로부터 설정거리 이내에 위치하는 객체(g)들에 대하여는 진동주기에 가중치를 부여하여 더 빨리 진동하도록 할 수 있다. 나아가, 시선위치(f)와의 거리에 따라 복수의 단계로 구분한 후, 각각의 단계별로 상이한 진동주기를 설정하는 것도 가능하다. 따라서, 사용자는 진동주기가 빠른 객체(g) 주위에 자신의 시선위치가 위치함을 용이하게 확인할 수 있으며, 시선위치의 이동 등을 파악할 수 있다. Meanwhile, when a plurality of objects are located, the vibration period of the object g close to the gaze position f may be displayed relatively shorter. For example, the vibration period is set in proportion to the distance between the gaze position (f) and the objects (g), or depending on the embodiment, objects (g) located within a set distance from the gaze position (f) Regarding, the vibration period can be given a weight to make it vibrate faster. Furthermore, after dividing into a plurality of steps according to the distance from the gaze position f, it is also possible to set a different vibration period for each step. Accordingly, the user can easily check that his/her gaze position is located around the object g having a fast vibration period, and can grasp the movement of the gaze position.

도8에 도시한 바와 같이, 두개의 객체(g1, g2)가 디스플레이부(110) 상에 표시된 경우, 제어부(130)는 두개의 객체(g1, g2) 중에서 상대적으로 시선위치(f)와 가까운 쪽의 객체가 더 빠르게 진동하도록 할 수 있다. 여기서, 시선위치(f)와의 거리는 제1 객체(g1)와 제2 객체(g2) 사이에 형성된 가상의 중심선을 기준할 수 있다. As shown in FIG. 8, when two objects g1 and g2 are displayed on the display unit 110, the controller 130 is relatively close to the gaze position f among the two objects g1 and g2. You can make the object on the side vibrate faster. Here, the distance from the gaze position f may be based on a virtual center line formed between the first object g1 and the second object g2.

따라서, 도8(a)와 같이, 사용자의 시선위치(f)가 제1 객체(g1)에 가까운 경우에는, 제1 객체(g1)가 빠르게 진동하고 제2 객체(g2)는 상대적으로 적게 진동하도록 할 수 있다. 또한, 도8(b)와 같이 사용자의 시선위치(f)가 중심선 상에 위치하는 경우에는, 제1 객체(g1) 및 제2 객체(g2) 모두 상대적으로 적게 진동할 수 있다. 반면에, 도8(c)와 같이 사용자의 시선위치(f)가 중심선을 넘는경우 제2 객체(g2)가 빠르게 진동하고 제1 객체(g1)는 상대적으로 적게 진동하도록 할 수 있다. 이를 통하여, 사용자가 자신의 시선위치(f)를 명확하게 파악하는 것이 가능하다. Therefore, as shown in Fig. 8(a), when the user's gaze position f is close to the first object g1, the first object g1 vibrates rapidly and the second object g2 vibrates relatively little. You can do it. In addition, when the user's gaze position f is located on the center line as shown in FIG. 8(b), both the first object g1 and the second object g2 may vibrate relatively little. On the other hand, as shown in FIG. 8(c), when the user's gaze position f exceeds the center line, the second object g2 vibrates rapidly and the first object g1 vibrates relatively less. Through this, it is possible for the user to clearly grasp his gaze position f.

추가적으로, 제어부(130)는 시선위치의 진행방향을 고려하여 객체(g)들을 진동시킬 수 있다. 즉, 도7(b)에 도시한 바와 같이, 시선위치의 진행방향을 기준으로 관심영역(h)을 설정할 수 있으며, 관심영역(h) 내에 포함된 객체들에 한하여 진동하도록 제어할 수 있다. 시선위치(f)를 기준으로 일정한 범위 내에 위치하는 객체(g)를 진동하도록 하는 경우에는, 시선위치(f) 주위의 전방위에 위치하는 객체(g)들이 모두 진동할 수 있으므로, 시선위치(f)의 정확한 위치를 확인하기 어려울 수 있다. 따라서, 시선위치(f)의 진행방향을 기준으로 관심영역(h)을 설정한 후, 관심영역(h) 내에 위치하는 객체(g)들에 한하여 진동하도록 표시할 수 있다. Additionally, the controller 130 may vibrate the objects g in consideration of the moving direction of the gaze position. That is, as shown in FIG. 7B, the region of interest h may be set based on the moving direction of the gaze position, and objects included in the region of interest h may be controlled to vibrate. In the case of vibrating an object (g) located within a certain range based on the gaze position (f), all objects (g) located in all directions around the gaze position (f) can vibrate, so the gaze position (f It can be difficult to determine the exact location of ). Accordingly, after setting the region of interest h based on the moving direction of the gaze position f, it is possible to display only the objects g located in the region of interest h to vibrate.

도9는 본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법을 나타내는 순서도이다. 9 is a flowchart illustrating a method of providing a gaze recognition interface of a user terminal according to an embodiment of the present invention.

도9를 참조하면 본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법은, 시선인식단계(S110), 인식표시단계(S120), 시선표시단계(S130) 및 인식중단단계(S140)를 포함할 수 있다. Referring to FIG. 9, a method for providing a gaze recognition interface of a user terminal according to an embodiment of the present invention includes a gaze recognition step (S110), a recognition display step (S120), a gaze display step (S130), and a recognition stop step (S140). It may include.

이하 도9를 참조하여 본 발명의 일 실시예에 의한 사용자 단말의 시선인식 인터페이스 제공방법을 설명한다. Hereinafter, a method of providing a gaze recognition interface of a user terminal according to an embodiment of the present invention will be described with reference to FIG. 9.

시선인식단계(S110)에서는, 시선 인식 센서를 이용하여 사용자 단말의 디스플레이부 상에 위치하는 사용자의 시선위치를 인식할 수 있다. 시선인식센서는 일반 카메라 또는 적외선 카메라 등으로 구현할 수 있으나, 이에 한정되는 것은 아니며, 실시예에 따라 다양한 종류의 센서나 알고리즘 등으로 구현할 수 있다. 사용자 단말은 인식된 시선위치를 이용하여, 클릭(click) 등의 동작을 수행하거나, 웹툰이나 전자책 컨텐츠 등의 경우 페이지 스크롤, 페이지 넘김 동작 등을 수행할 수 있다.In the gaze recognition step (S110), the gaze position of the user located on the display unit of the user terminal may be recognized using the gaze recognition sensor. The gaze recognition sensor may be implemented with a general camera or an infrared camera, but is not limited thereto, and may be implemented with various types of sensors or algorithms according to embodiments. The user terminal may perform an operation such as a click using the recognized gaze position, or may perform a page scrolling operation or a page turning operation in the case of webtoon or e-book content.

인식표시단계(S120)에서는 시선위치가 인식되면, 디스플레이부의 설정영역 내에 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시할 수 있다. 사용자는 사용자 단말이 현재 시선인식 중임을 인지하지 못할 수 있으며, 이 경우 사용자의 신체 일부나 다른 물체 등이 디스플레이부를 가려 시선인식이 정확하게 수행되지 않을 수 있다. 이를 방지하기 위하여, 사용자 단말은 디스플레이부 상에 인식표시아이콘을 표시하여, 사용자에게 현재 시선위치가 인식 중임을 나타낼 수 있다. 즉, 설정영역 내에 인식표시아이콘을 표시하여, 현재 사용자 단말이 시선인식 중임을 알릴 수 있다. 여기서, 설정영역은 디스플레이부의 상단에 표시되는 상태표시바(status bar)이거나, 상태표시바 이외에 디스플레이부내의 임의의 영역에 설정할 수 있다. In the recognition display step S120, when the gaze position is recognized, a recognition display icon indicating that the gaze position is being recognized may be displayed in a setting area of the display unit. The user may not be able to recognize that the user terminal is currently recognizing the gaze, and in this case, a part of the user's body or other object may cover the display unit and thus gaze recognition may not be accurately performed. To prevent this, the user terminal may display a recognition display icon on the display unit to indicate to the user that the current gaze position is being recognized. That is, by displaying the recognition display icon in the setting area, it is possible to notify that the user terminal is currently recognizing the gaze. Here, the setting area may be a status bar displayed on the top of the display unit or may be set in an arbitrary area in the display unit other than the status display bar.

추가적으로, 사용자로부터 시선인식요청을 수신하는 경우, 시선인식요청에 대응하는 제1 애니메이션을 디스플레이부 상에 출력할 수 있다. 즉, 제1 애니메이션이 출력되는 동안 사용자의 시선을 추적하여 시선위치를 인식할 수 있다. 여기서, 제1 애니메이션은 카운트다운이나 진행상태표시바(progressive bar) 등 다양한 방법으로 구현할 수 있다. Additionally, when receiving a gaze recognition request from a user, a first animation corresponding to the gaze recognition request may be output on the display unit. That is, while the first animation is being output, the user's gaze may be tracked to recognize the gaze position. Here, the first animation can be implemented in various ways, such as a countdown or a progress bar.

또한, 실시예에 따라서는, 제1 애니메이션에 캐릭터 이미지 등 사용자의 시선을 끌수있는 요소를 더 포함하는 것도 가능하다. 즉, 제1 애니메이션을 이용하여 디스플레이부의 특정지점에 사용자의 시선위치가 위치하도록 유도할 수 있다. 여기서, 특정지점은 시선인식센서가 사용자의 시선위치를 인식하기 유리한 것으로 미리 설정된 위치일 수 있다. In addition, depending on the embodiment, it is possible to further include an element that can attract the user's attention, such as a character image, in the first animation. That is, it is possible to induce the user's gaze position to be located at a specific point of the display unit using the first animation. Here, the specific point may be a preset position as advantageous for the gaze recognition sensor to recognize the user's gaze position.

시선표시단계(S130)에서는 인식된 시선위치에 대응하는 위치를 디스플레이부 상에 표시할 수 있다. 즉, 사용자가 자신의 시선위치가 디스플레이부 상의 어디에 위치하는지를 직관적으로 인식할 수 있도록 디스플레이부에 표시할 수 있다. 여기서, 사용자 단말은 다양한 실시예를 활용하여 사용자의 시선위치를 표시할 수 있다. In the gaze display step S130, a location corresponding to the recognized gaze location may be displayed on the display unit. That is, the user may display the gaze position on the display unit so that the user can intuitively recognize where his or her gaze position is located on the display unit. Here, the user terminal may display the user's gaze position using various embodiments.

먼저, 사용자 단말은 인식된 시선위치에 대응하여, 디스플레이부 상에 시선위치아이콘을 표시할 수 있다. 즉, 시선위치아이콘을 이용하여 디스플레이부 상에 시선위치를 명확하게 나타낼 수 있다. 이때, 시선위치아이콘을 반투명할 수 있으며, 사용자의 시선위치의 변경에 따라 이동할 수 있다.First, the user terminal may display a gaze location icon on the display unit in response to the recognized gaze location. That is, the gaze position can be clearly indicated on the display unit by using the gaze position icon. At this time, the gaze position icon may be translucent, and may be moved according to a change in the user's gaze position.

또한, 사용자 단말은 사용자의 시선위치 이동을 나타내는 제2 애니메이션을 디스플레이부 상에 표시하는 방식으로 시선위치를 나타낼 수 있다. 예를들어, 시선위치가 이동하는 경로에 대응하여 물결이 치는 애니메이션이나 파동이 발생하는 애니메이션, 시선위치아이콘의 잔상을 표시하는 애니메이션 등을 이용하여 시선위치 이동을 나타낼 수 있다. 이 경우, 사용자 단말은 제1 레이어와 제2 레이어를 중첩하여 표시하는 방식으로 시선위치를 나타낼 수 있다. 즉, 제1 레이어 상에는 실행 중인 어플리케이션 또는 컨텐츠를 표시하고, 제2 레이어 상에는 사용자의 시선위치 변경에 대응하는 제2 애니메이션을 표시할 수 있다. 이후, 제1 레이어와 제2 레이어를 중첩하여, 디스플레이부 상에는 어플리케이션 또는 컨텐츠 상에서 이동하는 사용자의 시선위치가 제2 애니메이션으로 표시되도록 할 수 있다. Also, the user terminal may indicate the gaze position by displaying a second animation indicating movement of the gaze position of the user on the display unit. For example, the movement of the gaze position may be indicated by using an animation in which a wave occurs, an animation in which a wave occurs, an animation displaying an afterimage of the gaze position icon, or the like in response to a path in which the gaze position moves. In this case, the user terminal may indicate the gaze position by overlapping and displaying the first layer and the second layer. That is, a running application or content may be displayed on the first layer, and a second animation corresponding to a change in the user's gaze position may be displayed on the second layer. Thereafter, by overlapping the first layer and the second layer, the gaze position of the user moving on the application or content may be displayed as a second animation on the display unit.

이외에도, 사용자 단말은 사용자의 시선위치에 근접한 객체들을 진동시키는 방식으로 사용자의 시선위치를 표시할 수 있다. 즉, 시선위치가 디스플레이부에 표시된 객체들로부터 설정범위 내에 위치하면, 객체들을 진동시켜 시선위치를 표시할 수 있다. 이 경우, 시선위치가 객체에 가까워질수록 객체의 진동주기를 짧게 나타낼 수 있으며, 사용자는 객체의 진동주기를 통하여 자신의 시선위치를 확인할 수 있다. In addition, the user terminal may display the user's gaze position by vibrating objects close to the user's gaze position. That is, when the gaze position is located within a set range from objects displayed on the display unit, the objects may be vibrated to display the gaze position. In this case, as the gaze position gets closer to the object, the vibration period of the object can be shortened, and the user can check his gaze position through the vibration period of the object.

객체들이 복수개 위치하는 경우에는, 사용자 단말이 시선위치와 가까운 객체의 진동주기를 상대적으로 더 짧게 표시할 수 있다. 즉, 시선위치와 객체들 사이의 거리에 비례하여 진동주기를 설정하거나, 시선위치로부터 설정거리 이내에 위치하는 객체들에 대하여는 진동주기에 가중치를 부여하여 더 빨리 진동하도록 할 수 있다. 나아가, 시선위치와의 거리에 따라 복수의 단계로 구분한 후, 각각의 단계별로 상이한 진동주기를 설정하는 것도 가능하다.When a plurality of objects are located, the user terminal may relatively shorten the vibration period of the object close to the gaze position. That is, the vibration period may be set in proportion to the gaze position and the distance between the objects, or objects located within a set distance from the gaze position may be made to vibrate faster by giving a weight to the vibration period. Further, it is possible to divide into a plurality of steps according to the distance from the gaze position, and then set a different vibration period for each step.

추가적으로, 사용자단말은 시선위치의 진행방향을 고려하여 객체들을 진동시키는 것도 가능하다. 즉, 시선위치의 진행방향을 기준으로 관심영역을 설정하고, 관심영역 내에 포함된 객체들 중에서 시선위치와 근접한 객체들을 진동시킬 수 있다. Additionally, the user terminal may vibrate the objects in consideration of the moving direction of the gaze position. That is, an ROI may be set based on the moving direction of the gaze position, and objects close to the gaze position among objects included in the ROI may be vibrated.

인식중단단계(S140)에서는, 시선위치의 인식에 실패하거나, 사용자로부터 시선인식중단요청을 입력받으면, 설정영역에서 인식표시아이콘을 제거할 수 있다. 시선인식센서에 의한 시선인식은 사용자 단말과 사용자의 눈동자 사이에 위치하는 사용자의 손, 팔 등의 신체부위나 다른 물체 등에 의하여 방해받을 수 있다. 이 경우 시선인식센서는 시선인식에 실패하여 시선인식을 중단할 수 있다. 또한, 사용자가 스스로 시선인식 기능을 중단하고자 하는 경우가 있을 수 있다.In the recognition stop step (S140), if recognition of the gaze position fails or a gaze recognition stop request is received from the user, the recognition display icon may be removed from the setting area. The gaze recognition by the gaze recognition sensor may be disturbed by a body part such as a user's hand or arm or other objects positioned between the user terminal and the user's eyes. In this case, the gaze recognition sensor may fail gaze recognition and stop gaze recognition. In addition, there may be a case in which the user himself wants to stop the gaze recognition function.

이와 같이, 시선위치의 인식에 실패하거나, 사용자로부터 시선인식중단요청을 입력받으면, 사용자 단말은 설정영역에서 인식표시아이콘을 제거하여, 시선인식이 중단되었음을 표시할 수 있다. 즉, 사용자는 설정영역 내의 인식표시아이콘 유무를 확인하여, 현재 사용자 단말이 시선인식을 수행하고 있는지를 인식할 수 있다. In this way, when recognition of the gaze position fails or a request for stopping gaze recognition is received from the user, the user terminal may indicate that gaze recognition has been stopped by removing the recognition display icon from the setting area. That is, the user can check whether or not the recognition display icon in the setting area is present, and recognize whether the user terminal is currently performing gaze recognition.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined, but is not limited to a medium directly connected to a computer system, and may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks, and And a ROM, RAM, flash memory, and the like, and may be configured to store program instructions. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or storage medium managed by a server. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. It will be apparent to those of ordinary skill in the art to which the present invention pertains, that components according to the present invention can be substituted, modified, and changed within the scope of the technical spirit of the present invention.

100: 사용자 단말 110: 디스플레이부
120: 시선인식센서 130: 제어부
200: 서비스 서버
S110: 시선인식단계 S120: 인식표시단계
S130: 시선표시단계 S140: 인식중단단계
100: user terminal 110: display unit
120: gaze recognition sensor 130: control unit
200: service server
S110: gaze recognition step S120: recognition display step
S130: gaze display step S140: recognition interruption step

Claims (16)

디스플레이부, 시선 인식 센서 및 제어부를 포함하는 사용자 단말의 시선인식 인터페이스 제공 방법에 있어서,
시선 인식 센서를 이용하여, 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선인식단계;
상기 시선위치가 인식되면, 제어부가 상기 디스플레이부의 상단에 표시되는 상태표시바(status bar) 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하는 인식표시단계;
상기 시선위치의 인식에 실패하거나, 사용자로부터 시선인식중단요청을 입력받으면, 제어부가 상기 상태표시바에서 상기 인식표시아이콘을 제거하는 인식중단단계; 및
제어부가 상기 인식된 시선위치에 대응하는 위치를 상기 디스플레이부 상에 표시하는 시선표시단계를 포함하는 것으로,
상기 시선표시단계는
상기 시선위치가 상기 디스플레이부에 표시된 객체들로부터 설정범위 내에 위치하면, 상기 객체들을 진동시켜 상기 시선위치를 표시하며,
상기 시선표시단계는
상기 객체들이 복수개 위치하는 경우, 상기 시선위치와 가까운 객체의 진동주기를 상대적으로 더 짧게 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
In the method of providing a gaze recognition interface of a user terminal including a display unit, a gaze recognition sensor, and a control unit,
A gaze recognition step of recognizing a gaze position of a user positioned on the display unit by using a gaze recognition sensor;
A recognition display step of displaying a recognition display icon indicating that the gaze position is being recognized in a status bar displayed on an upper portion of the display unit, when the gaze position is recognized;
A recognition stopping step of removing the recognition display icon from the status display bar when the recognition of the gaze position fails or when a user inputs a gaze recognition stop request; And
And a gaze display step of displaying a location corresponding to the recognized gaze location on the display unit,
The gaze display step
When the gaze position is located within a set range from the objects displayed on the display unit, the objects are vibrated to display the gaze position,
The gaze display step
When the plurality of objects are located, the vibrating period of the object close to the gaze position is displayed relatively shorter.
삭제delete 삭제delete 제1항에 있어서, 상기 시선인식단계는
사용자로부터 시선인식요청을 수신하면, 상기 시선인식요청에 대응하는 제1 애니메이션을 상기 디스플레이부 상에 출력하고, 상기 제1 애니메이션이 출력되는 동안 사용자의 시선을 추적하여 상기 시선위치를 인식하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 1, wherein the gaze recognition step
When receiving a gaze recognition request from a user, a first animation corresponding to the gaze recognition request is output on the display unit, and the gaze position is recognized by tracking the user's gaze while the first animation is being output. A method of providing a gaze recognition interface of a user terminal.
제4항에 있어서, 상기 시선인식단계는
상기 제1 애니메이션을 이용하여, 상기 시선위치가 상기 디스플레이부의 특정지점에 위치하도록 유도하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 4, wherein the gaze recognition step
Using the first animation, the method of providing a gaze recognition interface of a user terminal, characterized in that inducing the gaze position to be located at a specific point of the display unit.
삭제delete 제1항에 있어서, 상기 시선표시단계는
상기 인식된 시선위치에 대응하여, 상기 디스플레이부 상에 시선위치아이콘을 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 1, wherein the step of displaying the line of sight
A method for providing a gaze recognition interface of a user terminal, comprising displaying a gaze location icon on the display unit in response to the recognized gaze location.
제1항에 있어서, 상기 시선표시단계는
상기 시선위치가 이동하면, 상기 시선위치의 이동을 나타내는 제2 애니메이션을 상기 디스플레이부 상에 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 1, wherein the step of displaying the line of sight
When the gaze position moves, a second animation indicating the movement of the gaze position is displayed on the display unit.
제8항에 있어서, 상기 시선표시단계는
사용자가 선택한 컨텐츠를 포함하는 제1 레이어 상에, 상기 시선위치의 이동에 대응하는 물결이나 파동을 나타내는 제2 애니메이션을 포함하는 제2 레이어를 중첩하여 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 8, wherein the step of displaying the line of sight
A gaze recognition interface of a user terminal, characterized in that a second layer including a second animation representing a wave or wave corresponding to the movement of the gaze position is superimposed and displayed on the first layer including the content selected by the user Delivery method.
삭제delete 제1항에 있어서, 상기 시선표시단계는
상기 시선위치가 상기 객체에 가까워질수록 상기 객체의 진동주기를 짧게 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 1, wherein the step of displaying the line of sight
A method for providing a gaze recognition interface of a user terminal, characterized in that as the gaze position approaches the object, the vibration period of the object is displayed shortly.
디스플레이부, 시선 인식 센서 및 제어부를 포함하는 사용자 단말의 시선인식 인터페이스 제공 방법에 있어서,
시선 인식 센서를 이용하여, 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선인식단계;
상기 시선위치가 인식되면, 제어부가 상기 디스플레이부의 설정영역 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하는 인식표시단계; 및
제어부가 상기 인식된 시선위치에 대응하는 위치를 상기 디스플레이부 상에 표시하는 시선표시단계를 포함하는 것으로,
상기 시선표시단계는
상기 시선위치가 상기 디스플레이부에 표시된 객체들로부터 설정범위 내에 위치하면, 상기 객체들을 진동시켜 상기 시선위치를 표시하며,
상기 시선표시단계는
상기 객체들이 복수개 위치하는 경우, 상기 시선위치와 가까운 객체의 진동주기를 상대적으로 더 짧게 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
In the method of providing a gaze recognition interface of a user terminal including a display unit, a gaze recognition sensor, and a control unit,
A gaze recognition step of recognizing a gaze position of a user positioned on the display unit by using a gaze recognition sensor;
A recognition display step of displaying a recognition display icon indicating that the gaze position is being recognized in a setting area of the display unit when the gaze position is recognized; And
And a gaze display step of displaying a location corresponding to the recognized gaze location on the display unit,
The gaze display step
When the gaze position is located within a set range from the objects displayed on the display unit, the objects are vibrated to display the gaze position,
The gaze display step
When the plurality of objects are located, the vibrating period of the object close to the gaze position is displayed relatively shorter.
제12항에 있어서, 상기 시선표시단계는
상기 시선위치와 상기 객체들 사이의 거리에 비례하여 상기 진동주기를 설정하고, 상기 시선위치로부터 설정거리 이내에 위치하는 객체에 대하여는 상기 진동주기에 가중치를 부여하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 12, wherein the step of displaying the line of sight
The gaze recognition interface of a user terminal, characterized in that the vibration period is set in proportion to the gaze position and the distance between the objects, and a weight is given to the vibration period for objects located within a set distance from the gaze location. Delivery method.
제1항에 있어서, 상기 시선표시단계는
상기 시선위치의 진행방향을 기준으로 관심영역을 설정하고, 상기 관심영역 내에 위치하는 상기 객체를 상기 시선위치에 대응하여 진동하도록 표시하는 것을 특징으로 하는 사용자 단말의 시선인식 인터페이스 제공 방법.
The method of claim 1, wherein the step of displaying the line of sight
A method for providing a gaze recognition interface of a user terminal, characterized in that: setting a region of interest based on a moving direction of the gaze position, and displaying the object located in the region of interest to vibrate in response to the gaze position.
하드웨어와 결합되어, 제1항, 제4항 내지 제5항, 제7항 내지 제9항, 제11항 내지 제14항 중 어느 한 항의 시선인식 인터페이스 제공 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a medium to execute the method of providing a gaze recognition interface according to any one of claims 1, 4 to 5, 7 to 9, 11 to 14 in combination with hardware .
디스플레이부;
상기 디스플레이부 상에 위치하는 사용자의 시선위치를 인식하는 시선 인식 센서; 및
상기 시선위치가 인식되면, 상기 디스플레이부의 상단에 표시되는 상태표시바(status bar) 내에 상기 시선위치가 인식 중임을 나타내는 인식표시아이콘을 표시하도록 제어하는 제어부를 포함하는 것으로,
상기 제어부는
상기 시선위치의 인식에 실패하거나, 사용자로부터 시선인식중단요청을 입력받으면, 상기 상태표시바에서 상기 인식표시아이콘을 제거하고,
상기 제어부는
상기 인식된 시선위치에 대응하는 위치를 상기 디스플레이부 상에 표시하며, 상기 시선위치가 상기 디스플레이부에 표시된 객체들로부터 설정범위 내에 위치하면, 상기 객체들을 진동시켜 상기 시선위치를 표시하고, 상기 객체들이 복수개 위치하는 경우, 상기 시선위치와 가까운 객체의 진동주기를 상대적으로 더 짧게 표시하는 것을 특징으로 하는 사용자 단말.
A display unit;
A gaze recognition sensor for recognizing a gaze position of a user positioned on the display unit; And
When the gaze position is recognized, a control unit for controlling to display a recognition display icon indicating that the gaze position is being recognized in a status bar displayed at the top of the display unit,
The control unit
When the recognition of the gaze position fails or a request to stop gaze recognition is received from the user, the recognition display icon is removed from the status display bar,
The control unit
A position corresponding to the recognized gaze position is displayed on the display unit, and when the gaze position is within a set range from objects displayed on the display unit, the objects are vibrated to display the gaze position, and the object When a plurality of are located, the user terminal, characterized in that to display a relatively shorter vibration period of the object close to the gaze position.
KR1020180144319A 2018-11-21 2018-11-21 Method for providing user interface using gaze recognition and user apparatus using the same KR102216020B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144319A KR102216020B1 (en) 2018-11-21 2018-11-21 Method for providing user interface using gaze recognition and user apparatus using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144319A KR102216020B1 (en) 2018-11-21 2018-11-21 Method for providing user interface using gaze recognition and user apparatus using the same

Publications (2)

Publication Number Publication Date
KR20200059509A KR20200059509A (en) 2020-05-29
KR102216020B1 true KR102216020B1 (en) 2021-02-17

Family

ID=70911724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144319A KR102216020B1 (en) 2018-11-21 2018-11-21 Method for providing user interface using gaze recognition and user apparatus using the same

Country Status (1)

Country Link
KR (1) KR102216020B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102506037B1 (en) 2022-08-12 2023-03-06 주식회사 아이트 Pointing method and pointing system using eye tracking based on stereo camera

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220103382A (en) * 2021-01-15 2022-07-22 삼성전자주식회사 Electronic device identifying emotion state and operating method thereof

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016537067A (en) 2013-10-17 2016-12-01 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド Methods for assessing infant and child development by eye tracking
KR101857466B1 (en) * 2017-06-16 2018-05-15 주식회사 비주얼캠프 Head mounted display and method for calibrating the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101850035B1 (en) * 2012-05-02 2018-04-20 엘지전자 주식회사 Mobile terminal and control method thereof
KR20140073730A (en) * 2012-12-06 2014-06-17 엘지전자 주식회사 Mobile terminal and method for controlling mobile terminal
KR20160109443A (en) * 2015-03-11 2016-09-21 주식회사 비주얼캠프 Display apparatus using eye-tracking and method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016537067A (en) 2013-10-17 2016-12-01 チルドレンズ ヘルスケア オブ アトランタ, インコーポレイテッド Methods for assessing infant and child development by eye tracking
KR101857466B1 (en) * 2017-06-16 2018-05-15 주식회사 비주얼캠프 Head mounted display and method for calibrating the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102506037B1 (en) 2022-08-12 2023-03-06 주식회사 아이트 Pointing method and pointing system using eye tracking based on stereo camera

Also Published As

Publication number Publication date
KR20200059509A (en) 2020-05-29

Similar Documents

Publication Publication Date Title
CN110168618B (en) Augmented reality control system and method
US20200379560A1 (en) Implicitly adaptive eye-tracking user interface
US9804669B2 (en) High resolution perception of content in a wide field of view of a head-mounted display
US10114609B2 (en) Computing interface for users with disabilities
CN106716302B (en) Method, apparatus, and computer-readable medium for displaying image
US10055894B2 (en) Markerless superimposition of content in augmented reality systems
US9013416B2 (en) Multi-display type device interactions
CN104823147B (en) Multimodal user expression and user's dynamics as the interaction with application
KR101563312B1 (en) System for gaze-based providing education content
CN103858073A (en) Touch free interface for augmented reality systems
US20160357221A1 (en) User terminal apparatus and method of controlling the same
US20170199631A1 (en) Devices, Methods, and Graphical User Interfaces for Enabling Display Management of Participant Devices
US10983561B2 (en) Method for managing flexible display and electronic device thereof
TW201329853A (en) User controlled real object disappearance in a mixed reality display
WO2014116412A1 (en) A system and method for providing augmented content
KR102216020B1 (en) Method for providing user interface using gaze recognition and user apparatus using the same
EP3881165A1 (en) Virtual content display opportunity in mixed reality
US9639113B2 (en) Display method and electronic device
Martins et al. Low-cost natural interface based on head movements
EP3794429B1 (en) Method for managing flexible display and electronic device thereof
CN110908568B (en) Control method and device for virtual object
US10650037B2 (en) Enhancing information in a three-dimensional map
CN107102725B (en) Control method and system for virtual reality movement based on somatosensory handle
JP2020013381A (en) Information processing program, information processing method, terminal device, and analysis device
US20220100272A1 (en) Hand tremor accessible using augmented reality user interface

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
N231 Notification of change of applicant
GRNT Written decision to grant