KR101943206B1 - Method and apparatus for inputting command using illusion user interface - Google Patents

Method and apparatus for inputting command using illusion user interface Download PDF

Info

Publication number
KR101943206B1
KR101943206B1 KR1020170083034A KR20170083034A KR101943206B1 KR 101943206 B1 KR101943206 B1 KR 101943206B1 KR 1020170083034 A KR1020170083034 A KR 1020170083034A KR 20170083034 A KR20170083034 A KR 20170083034A KR 101943206 B1 KR101943206 B1 KR 101943206B1
Authority
KR
South Korea
Prior art keywords
illusion
user
gaze
state
eye movement
Prior art date
Application number
KR1020170083034A
Other languages
Korean (ko)
Other versions
KR20190002831A (en
Inventor
이종석
이주연
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020170083034A priority Critical patent/KR101943206B1/en
Publication of KR20190002831A publication Critical patent/KR20190002831A/en
Application granted granted Critical
Publication of KR101943206B1 publication Critical patent/KR101943206B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

착시 UI를 이용하여 명령을 입력하는 방법 및 장치가 제공된다. 본 발명의 일 실시예에 따른 착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)을 이용하여 명령을 입력하는 장치는 화면을 바라보는 사용자의 시선을 추적하는 시선 추적부, 상기 사용자의 시선이 상기 화면에 표시된 특정 착시 UI를 응시하면, 상기 사용자의 눈 움직임을 측정하는 응시 정보 측정부 및 상기 측정된 눈 움직임이 미리 정해진 임계 값의 범위에 해당하면, 상기 특정 착시 UI에 상응하는 제어 명령을 실행하는 제어 명령 실행부를 포함하는 것을 특징으로한다.A method and apparatus for inputting an instruction using an illusion UI are provided. An apparatus for inputting a command using a user interface (hereinafter referred to as " illusion UI ") using an image causing an optical illusion effect according to an embodiment of the present invention includes a gaze tracking unit for tracking a gaze of a user looking at a screen, A gaze information measuring unit for measuring a gaze of the user when the user's gaze gazes at a specific optical illusion UI displayed on the screen and a gaze information measuring unit for measuring the gaze of the user when the measured eye movement falls within a predetermined threshold range, And a control instruction execution unit for executing a control instruction for executing the control instruction.

Description

착시 UI를 이용하여 명령을 입력하는 방법 및 장치{METHOD AND APPARATUS FOR INPUTTING COMMAND USING ILLUSION USER INTERFACE}TECHNICAL FIELD [0001] The present invention relates to a method and apparatus for inputting a command using an ill-

본 발명은 착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)를 제공하고, 이를 응시하는 사용자의 눈 움직임에 기초하여 해당 착시 UI에 상응하는 제어 명령을 입력하는 기술에 관한 것이다.The present invention relates to a technique for providing a user interface (hereinafter, referred to as 'illusion UI') using an image causing an optical illusion and for inputting a control command corresponding to the illusionary UI based on a user's eye movement .

컴퓨터, 스마트 폰과 같은 장치에서의 명령 입력은 사용자의 의식적인 행동 특히 사용자의 손으로 의식적인 행위가 이루어져야 한다. 예를 들어, 키보드의 키 버튼을 누르는 행위 및 스마트 폰의 특정 영역을 터치하는 동작이 이루어져야 사용자가 요구하는 실행 명령이 이루어질 수 있다. Command input on a device such as a computer or smart phone should be conscious behavior of the user, especially with the user 's hand. For example, an action of pressing a key button of a keyboard or an operation of touching a specific area of a smartphone may be performed so that an execution command required by a user is made.

이와 같은 기존의 인터페이싱은 손을 자유롭게 사용할 수 없는 장애인 등이 사용할 수 없는 인터페이싱이며, 의식적인 행위를 요구하기에 상황에 따라 피로감을 유발하게 된다. Such conventional interfacing is an interfacing that can not be used by persons with disabilities who can not freely use their hands and requires conscious actions, thereby causing fatigue depending on the situation.

한편, 근래에 들어 VR(Virtual Reality) 장치에 대한 연구가 급속화되고 있으며, 이러한 VR 환경에서는 손에 의한 터치 동작과 버튼 푸쉬 동작으로는 적절한 인터페이싱이 어려운 측면이 있다. Meanwhile, in recent years, studies on VR (Virtual Reality) devices have been rapidly developed. In such a VR environment, it is difficult to perform appropriate interfacing by hand touch operation and button push operation.

사용자의 물리적인 행동을 요구하지 않는 인터페이스로는 뇌-컴퓨터 인터페이스가 있다. 뇌-컴퓨터 인터페이스는 뇌에 직접적으로 전극을 삽입하여 뇌의 활동을 측정하는 침습형 방법과 두개골 외부에서 관측되는 뇌파를 이용하여 뇌의 활동을 측정하는 비침습형 방법이 사용된다.An interface that does not require a user's physical behavior is a brain-computer interface. The brain-computer interface uses an invasive method of measuring the activity of the brain by inserting electrodes directly into the brain and a noninvasive method of measuring brain activity using brain waves observed from outside the skull.

이러한 뇌-컴퓨터 인터페이스는 뇌파를 측정하기 위한 고가의 장치가 별도로 요구되고 정확도가 담보되지 않아 일반인이 사용하기에는 현실적으로 어려운 측면이 있다. Such a brain-computer interface has a problem in that it is practically difficult for an ordinary person to use because an expensive device for measuring brain waves is separately required and accuracy is not guaranteed.

또한, 근래에 VR 환경에서 눈의 움직임을 추적하는 아이 트래킹(Eye Tracking)을 인터페이스에 활용하고 있다. 사람의 눈은 보고자 하는 방향으로 움직이게 되며 이를 트래킹하여 인터페이스에 활용하는 방식이다. 그러나, 아이 트래킹(Eye Tracking)은 앞서 기술한 사용자의 시선을 파악하는 용도로만 활용될 수 있을 뿐 이러한 아이 트래킹이 직접적인 실행 명령을 내리는 인터페이스로는 활용될 수 없는 문제점이 있어서 제한적으로만 활용되고 있는 실정이다. Recently, eye tracking has been used as an interface to track eye movements in VR environment. The human eye moves in the direction that you want to see and is used to track and interface it. However, eye tracking can be utilized only for the purpose of grasping the gaze of the user described above, and the eye tracking can not be utilized as an interface for issuing direct execution commands, It is true.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 착시 UI를 제공하고, 이를 응시하는 사용자의 눈 움직임에 기초하여 의식적 행위 없이 다양한 제어 명령을 입력할 수 있는 방법 및 장치를 제공한다. Disclosure of Invention Technical Problem [8] The present invention provides a method and apparatus for providing an optical illusion UI and inputting various control commands without conscious actions based on a user's eye movement.

상기와 같은 목적을 달성하기 위해, 본 발명의 일 측면에 따르면, 착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)을 이용하여 명령을 입력하는 장치로서, 화면을 바라보는 사용자의 시선을 추적하는 시선 추적부; 상기 사용자의 시선이 상기 화면에 표시된 특정 착시 UI를 응시하면, 상기 사용자의 눈 움직임을 측정하는 응시 정보 측정부; 및 상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단될 경우, 상기 착시 UI에 상응하는 제어 명령을 실행하는 제어 명령 실행부를 포함하는 착시 UI를 이용한 명령 입력 장치가 제공된다. According to an aspect of the present invention, there is provided an apparatus for inputting a command using a user interface (hereinafter referred to as " illusion UI ") using an image causing an optical illusion, A line of sight tracking unit for tracking a line of sight of the user; A gaze information measuring unit for measuring an eye movement of the user when the gaze of the user gazes at a specific illusion UI displayed on the screen; And a control command execution unit that executes a control command corresponding to the illusion UI when the measured eye movement is determined to be an eye movement corresponding to the recognition change.

상기 인지 전환에 상응하는 눈 움직임은 시선 고정 포인트가 순간적으로 변환하는 시선 도약, 눈의 초점 거리의 변화 및 동공 사이즈의 변화 중 적어도 하나를 포함한다. The eye movement corresponding to the cognitive conversion includes at least one of a gaze jump instantaneously converted by the gaze fixation point, a change in the focal distance of the eye, and a change in the pupil size.

상기 착시 UI를 이용한 명령 입력 장치는, 상기 착시 UI에 상응하는 제어 명령이 실행되면, 상기 착시 UI의 제1 상태를 제2 상태로 변경시켜 상기 화면에 표시하는 착시 UI 상태 변경부를 더 포함하되, 상기 착시 UI의 제1 상태와 제2 상태는 서로 다른 제어 명령에 각각 상응한다. Further comprising an illusion UI state change unit for changing the first state of the illusion UI to a second state and displaying the changed state on the screen when a control command corresponding to the illusion UI is executed, The first state and the second state of the illusion UI correspond to different control commands, respectively.

상기 착시 UI는 버튼(button)을 포함하며, 상기 버튼의 동작 여부가 상기 제1 상태와 제2 상태로 표시된다. The illusion UI includes a button, and whether or not the button is operated is displayed in the first state and the second state.

상기 버튼은 네커의 정육면체(Necker cube)로 구현되며, 서로 다른 색상 및 회전 각도 중 하나 이상을 적용하여 복수의 버튼으로 구현된다. The button is implemented as a necker cube, and is implemented with a plurality of buttons by applying one or more of different colors and rotation angles.

상기 제어 명령 실행부는 복수의 착시 UI가 시간 차를 가지고 응시되며 각각의 착시 UI의 응시에 대한 상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단되면, 상기 복수의 착시 UI가 형성하는 면적에 드래그 또는 블록을 지정하는 제어 명령을 실행한다. The control instruction execution unit may be configured to determine that the plurality of illu- mined UIs are gazed with a time difference and if the measured eye movement with respect to the gazing of each illu- minated UI is determined to be an eye movement corresponding to a cognitive switch, To execute a control command specifying a drag or a block.

상기 착시 UI가 마우스 커서이고 상기 응시 정보 측정부에서 인지 전환에 상응하는 눈 움직임이 감지될 경우, 상기 제어 명령 실행부는 상기 마우스 커서를 클릭하는 제어 명령을 실행한다. When the eye UI is a mouse cursor and the eye movement corresponding to the recognition change is detected in the gaze information measurement unit, the control command execution unit executes a control command to click the mouse cursor.

본 발며의 다른 측면에 따르면, 착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)을 이용하여 명령을 입력하는 방법에 있어서, (a) 화면을 바라보는 사용자의 시선을 추적하는 단계; (b) 상기 사용자의 시선이 상기 화면에 표시된 특정 착시 UI를 응시하면, 상기 사용자의 눈 움직임을 측정하는 단계; 및 (c) 상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단될 경우, 상기 착시 UI에 상응하는 제어 명령을 실행하는 단계를 포함하는 착시 UI를 이용한 명령 입력 방법이 제공된다. According to another aspect of the present invention, there is provided a method of inputting a command using a user interface (hereinafter referred to as " illusion UI ") using an image causing an optical illusion, comprising the steps of: (a) step; (b) measuring the eye movement of the user when the user's gaze gazes at the specific optical illusion UI displayed on the screen; And (c) executing a control command corresponding to the illusion UI when the measured eye movement is determined to be an eye movement corresponding to a cognitive conversion.

본 발명의 일 실시예에 따르면, 착시 UI 버튼을 응시하는 사용자의 눈 움직임에 기초하여 해당 착시 버튼을 선택하거나 선택 해제하도록 명령을 입력함으로써, 사용자의 의식적 행위를 요구하지 않으면서 단순한 방법으로 제어 명령을 입력할 수 있는 장점이 있다. According to an embodiment of the present invention, by inputting a command to select or deselect the corresponding ill-fated button based on the eye movement of the user gazing at the illusion UI button, the control command Can be input.

또한, 신체 장애자들의 의사 표현 및 장치 제어는 물론, 증강 현실이나 가상 현실 등의 콘텐츠 이용에도 폭 넓게 활용할 수 있다.In addition, it can be widely used for contents such as augmented reality and virtual reality, as well as the expression of physically disabled persons and device control.

본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.It should be understood that the effects of the present invention are not limited to the above effects and include all effects that can be deduced from the detailed description of the present invention or the configuration of the invention described in the claims.

도 1은 본 발명의 일 실시예에 따른 착시 UI를 이용하여 명령을 입력받는 장치를 도시한 도면이다.
도 2는 착시 UI를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 착시 UI를 이용하여 명령을 입력받는 과정을 도시한 흐름도이다.
1 is a block diagram illustrating an apparatus for receiving a command using an illusion UI according to an exemplary embodiment of the present invention.
2 is a diagram showing an illusion UI.
3 is a flowchart illustrating a process of receiving an instruction using an illusion UI according to an exemplary embodiment of the present invention.

이하에서는 첨부한 도면을 참조하여 본 발명을 설명하기로 한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 따라서 여기에서 설명하는 실시예로 한정되는 것은 아니다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함한다.Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "indirectly connected" .

또한 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 구비할 수 있다는 것을 의미한다.Also, when an element is referred to as " comprising ", it means that it can include other elements, not excluding other elements unless specifically stated otherwise.

이하 첨부된 도면을 참고하여 본 발명의 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 착시 UI를 이용하여 명령을 입력받는 장치를 도시한 도면이다.1 is a block diagram illustrating an apparatus for receiving a command using an illusion UI according to an exemplary embodiment of the present invention.

본 발명의 일 실시예에 따른 착시 UI를 이용하여 명령을 입력받는 장치(이하 '명령 입력 장치'라 칭함)(100)는 시선 추적부(110), 응시 정보 측정부(120), 제어 명령 실행부(130), 착시 UI 상태 변경부(140), 제어부(150) 및 저장부(160)를 포함할 수 있다.(Hereinafter, referred to as 'command input device') 100 receiving an instruction using an illusion UI according to an embodiment of the present invention includes a gaze tracking unit 110, a gaze information measurement unit 120, A UI unit 140, a controller 150, and a storage unit 160. The UI unit 140 may include a UI unit 130, an UI UI unit 140, a controller 150,

본 발명은 기존의 인터페이스를 착시 효과를 유발하는 이미지로 대체하고, 해당 이미지를 응시할 때 특정 눈 움직임이 발생하거나 특정 뇌파가 발생한다는 점을 이용하여, 착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(착시 UI)를 제공한다. 사용자가 해당 착시 UI를 응시할 때 상기 특정 눈 움직임 및 동공 크기의 변화가 감지되면, 해당 착시 UI에 상응하는 제어 명령을 실행시키기 위한 사용자의 입력으로 판단하고, 해당 착시 UI에 상응하는 제어 명령을 실행시키는 발명이다.The present invention replaces an existing interface with an image causing an optical illusion and uses a point of occurrence of a specific eye movement or a specific brain wave when the user looks at the image, ). When the user senses a change in the specific eye movement and the pupil size at the time of gazing at the illusionary UI, it is determined that the input is a user input for executing a control command corresponding to the optical illusion UI, and a control command corresponding to the optical illusion UI is executed The invention.

본 발명의 일 실시예에 따른 명령 입력 장치(100)는 데스크 탑 컴퓨터나 노트북 컴퓨터, 디지털 TV 등 화면에 제공되는 사용자 인터페이스(버튼 등)를 통해 다양한 동작을 실행시키는 실시예에 적용될 수 있다.The command input device 100 according to an embodiment of the present invention can be applied to an embodiment that performs various operations through a user interface (button, etc.) provided on a screen, such as a desktop computer, a notebook computer, or a digital TV.

또한, 본 발명의 일 실시예에 따른 명령 입력 장치(100)는 증강 현실(AR), 가상 현실(VR), 3차원 콘텐츠 등을 제공하는 HMD(Head/Helmet Mounted Display) 또는 HWD(Head Worn Display)와 같이 사람의 머리 또는 얼굴부에 착용하는 영상 제공 장치에 적용될 수 있다.In addition, the command input device 100 according to an embodiment of the present invention may include an HMD (Head / Helmet Mounted Display) or HWD (Head Worn Display) for providing an AR, a VR, The present invention can be applied to an image providing apparatus to be worn on a person's head or face portion.

본 발명은 기존의 UI를 착시 UI로 대체하는데, 여기서 UI는 예를 들어, 미디어 플레이어의 플레이 버튼, 스탑 버튼, 앞으로 가기 버튼, 창닫기 버튼, 확대 버튼 등과 같이 디스플레이를 통해 표시되는 모든 형태의 UI를 포함할 수 있을 것이다. The present invention replaces an existing UI with an optical illusion UI, wherein the UI may include any type of UI displayed through a display, such as a play button, a stop button, a forward button, a window close button, . ≪ / RTI >

한편, 마우스 커서 역시 착시 UI로 대체될 수도 있을 것이다. 이 경우 마우스 커서는 사용자의 시선에 따라 움직이도록 설정될 수 있을 것이다. On the other hand, the mouse cursor may also be replaced by an illusion UI. In this case, the mouse cursor may be set to move according to the user's gaze.

본 발명은 이와 같이 특정 동작을 위한 인터페이스가 착시 UI로 대체된 상태에서 해당 착시 UI를 응시할 때 발생하는 눈의 움직임을 감지하도록 하여 제어 명령을 실행하는 것이다. In the present invention, the control command is executed by detecting the eye movement occurring when the UI for the specific operation is replaced by the UI.

도 1에 도시된 각 구성 요소들을 설명하면, 시선 추적부(110)는 화면을 바라보는 사용자의 시선을 추적하여, 화면에서 사용자의 시선이 향하는 지점을 파악할 수 있다. 구체적으로, 시선 추적부(110)는 사용자가 바라보는 지점을 파악하여 사용자가 바라보는 착시 UI를 선택하도록 한다. Referring to FIG. 1, the gaze tracking unit 110 tracks the gaze of the user looking at the screen, and can grasp the point where the user's gaze is directed on the screen. Specifically, the gaze tracking unit 110 grasps a point viewed by the user and selects an optical illusion UI to be viewed by the user.

사용자의 시선을 추적하는(eye tracking) 방법은 기 공지된 다양한 시선 추적 기술을 활용할 수 있다. 이 때 본 발명의 명령 입력 장치(100)를 데스크 탑 컴퓨터나 노트북 컴퓨터, 디지털 TV 등을 사용하는 사용자에게 적용하는 경우와, HMD 또는 HWD를 사용하는 사용자에게 적용하는 경우와 같이 사용 환경(시선 추적을 위한 구성 요소들의 소형화 등)에 따라서 서로 다른 시선 추적 기술이 적용될 수 있다.The eye tracking method of the user can utilize various known eye tracking techniques. At this time, in a case where the command input device 100 of the present invention is applied to a user who uses a desktop computer, a notebook computer, a digital TV, or the like, and in a case where it is applied to a user using an HMD or HWD, And the miniaturization of the components for the light source, etc.).

일례로, 사용자의 시선 추적을 위해 카메라가 사용될 수 있으며, 카메라로 안구의 움직임을 포착하여 사용자가 바라보는 지점을 파악할 수 있을 것이다. 물론, 카메라 이외에도 다양한 센서를 이용하여 시선 추적이 가능하다는 점은 당업자에게 있어 자명할 것이다. For example, a camera may be used to track a user's gaze, and a camera may capture the movement of an eyeball to determine the point of view of the user. Of course, it will be obvious to those skilled in the art that a variety of sensors other than a camera can be used to track the eyes.

사용자가 바라보는 화면에는 다수의 착시 UI가 제공될 수 있으며, 시선 추적부는 사용자가 다수의 착시 UI 중 특정 착시 UI를 응시하는지 여부를 판단한다. 사용자는 미디어 플레이어의 플레이 버튼을 바라볼 수도 있고, 브라우저의 창 닫기 버튼을 바라볼 수도 있으며, 마우스 커서를 바라볼 수도 있는 바, 사용자가 바라보는 착시 UI가 어떤 UI인지를 판단하는 것이다. A plurality of illusionary UIs may be provided on the screen that the user views, and the eye-eye tracking unit determines whether or not the user gazes at a specific illusionary UI among a plurality of illusionary UIs. The user can look at the play button of the media player, the close button of the browser of the browser, or the mouse cursor to see what kind of UI the user is looking at.

한편, 응시 정보 측정부(120)는 시선 추적부(110)에서 파악된 사용자의 시선이 화면에 표시된 특정 착시 UI를 응시하는 것으로 판단되면, 사용자의 눈 움직임을 감지하여 응시 정보를 측정할 수 있다.On the other hand, if the gaze information measuring unit 120 determines that the gaze of the user grasped by the gaze tracking unit 110 is gazing at the specific illusion UI displayed on the screen, the gaze information measuring unit 120 may measure the gaze information by sensing the eye movement of the user .

이를 위해 응시 정보 측정부(120)는 눈 움직임을 측정하는 일 실시예로서 카메라 또는 안구 전위 센서(ElectroOculoGram; EOG)를 이용할 수 있다.To this end, the gaze information measuring unit 120 may use a camera or an electro-oculogram (EOG) as an embodiment for measuring eye movements.

여기서 '안구 전위 센서'는 사용자의 양쪽 눈 주위에 배치될 수 있으며, 사용자가 눈을 움직일 때 안구 주변 근육의 전기적인 활동에 의해 발생되는 신호(이하 '안구 전위 신호'라 칭함)를 양쪽 눈에 대해서 각각 획득할 수 있다.Herein, the 'ocular potential sensor' may be disposed around both eyes of the user, and a signal (hereinafter referred to as 'ocular potential signal') generated by electrical activity of muscles around the eye when the user moves his or her eye Respectively.

참고로, 응시 정보 측정부(120)가 HMD 또는 HWD에 적용되는 경우, 안구 전위 센서 및 카메라 중 적어도 하나가 HMD 또는 HWD의 눈 주위에 설치될 수 있을 것이다. For reference, when the gaze information measuring unit 120 is applied to the HMD or the HWD, at least one of the ocular potential sensor and the camera may be installed around the eyes of the HMD or the HWD.

이하에서는 응시 정보 측정부에서 측정하는 눈 움직임에 대해 설명하며, 도 2를 참조하여 착시 UI의 종류 및 착시 UI를 응시했을 때 발생하는 눈 움직임에 대해서 설명하도록 한다.Hereinafter, eye movements measured by the gaze information measuring unit will be described. Eye movements that occur when gazing at the type of the illusion UI and the illusion UI are described with reference to FIG.

먼저 착시 UI를 설명하기 전 착시 이미지에 대해 간략히 설명하면, 착시 이미지는 도 2에 도시된 바와 같이 이미지에 표시되는 개체가 다양한 형태의 개체로 인식될 수 있는 이미지이다. 즉, 착시 이미지는 보는 관점에 따라 개체가 다른 형태로 보이는 이미지를 의미하며, 도 2의 (a) 내지 (d)에는 착시 이미지의 일례가 도시되어 있다. 본 발명에서는 도 2의 (a) 내지 (d)에 도시된 바와 같은 착시 이미지가 기존의 인터페이스 버튼을 대신하여 표시되는 것이다. First, an optical image before the optical illusion UI will be briefly described. An optical illusion image is an image in which an object displayed in an image can be recognized as various types of objects, as shown in FIG. That is, the optical illusion image refers to an image in which the object appears in a different form according to the viewing point, and FIGS. 2 (a) to 2 (d) show an example of the optical illusion image. In the present invention, an optical illusion image as shown in Figs. 2 (a) to 2 (d) is displayed in place of the existing interface button.

예를 들어, (a)는 perspective reversal 착시 이미지로서, 늑대 이미지와 네커의 정육면체(necker cube)가 도시되어 있다.For example, (a) is a perspective reversal optical image, showing a wolf image and a necker cube.

늑대 이미지의 경우, 보는 관점에 따라서 우측을 바라보고 있는 늑대로 보이기도 하고, 좌측을 바라보고 있는 늑대로 보이기도 한다.In the case of a wolf image, it may be seen as a wolf looking to the right or a wolf looking to the left depending on the viewpoint.

또한, necker cube의 경우, 보는 관점에 따라서 정육면체가 4~5시 방향으로 돌출되어 보이거나 10~11시 방향으로 돌출되어 보이게 된다.Also, in the case of a necker cube, the cube appears to protrude at 4 ~ 5 o'clock or protrude at 10 ~ 11 o'clock depending on the viewpoint.

또한, (b)는 content reversal 착시 이미지로서, 보는 관점에 따라서 검은 눈을 가진 오리로 보이기도 하고, 검은 눈을 가진 토끼(오리의 입이 토끼의 귀)로 보이기도 한다.Also, (b) is a content reversal optical illusion image, which may be seen as a duck with black eyes depending on the viewpoint, and a rabbit with a black eye (mouth of a duck is seen as a rabbit's ear).

또한, (c)는 figure-ground reversal 착시 이미지로서 보는 관점에 따라서 해골로 보이기도 하고, 테이블에 잔이 놓여져 있고 남자와 여자가 손을 맞잡고 있는 모습으로 보이기도 한다. 그리고 다른 착시 이미지는 검은 배경에서 두 사람이 얼굴을 맞대고 있는 옆모습으로 보이기도 하고, 흰 배경에서 놓인 검은 컵으로 보이기도 한다.Also, (c) is a figure-ground reversal optical image, which may be seen as a skeleton depending on the viewpoint, a glass on the table, and a man and a woman holding hands. And the other optical illusion image can be seen as the profile of two people facing each other on a black background, or as a black cup placed on a white background.

(d)는 전술한 착시 이미지 중 necker cube를 이용한 착시 UI가 토글 버튼으로 구현된 실시예로서, ON을 나타내는 제1 상태와 OFF를 나타내는 제2 상태로 구현될 수 있다. 이하 착시 UI의 실시예로서 착시 버튼의 경우를 설명하도록 한다.(d) is an embodiment in which an illusion UI using a necker cube is implemented as a toggle button in the optical illusion image described above, and may be implemented in a first state indicating ON and a second state indicating OFF. Hereinafter, the case of the optical illusion button as an embodiment of the illusionary UI will be described.

참고로, necker cube를 이용한 착시 버튼은 necker cube의 색상을 변경하거나 기본 상태에서 회전 각도를 변경하여 서로 다른 착시 버튼으로 활용할 수도 있다.For reference, an optical illusion button using a necker cube can be used as a different optical illusion button by changing the color of the necker cube or changing the rotation angle in the basic state.

앞서 언급하였지만, 착시 이미지는 바라보는 관점에 따라서 하나의 이미지에 표시되는 개체가 서로 다른 개체로 인식될 수 있으므로, 사용자는 더욱 집중하여 해당 이미지를 바라보게(응시하게) 되며, 초기에 인지되던 특정 개체에서 다른 개체로 인지되는 시점에 사용자에게는 특별한 눈 움직임이 발생하게 된다. As described above, since the objects displayed in one image can be recognized as different objects according to the viewpoint, the user can focus more on the image to look at the image, A special eye movement occurs at a point in time when the object is recognized as another object.

예를 들어, 도 2에 도시된 (a) 및 (d)의 necker cube를 바라볼 때 초기에는 4~5시 방향으로 돌출되어 보였으나 응시를 함에 따라 10~11시 방향으로 돌출되어 보이게 될 때 특별한 눈 움직임이 발생하는 것이다. For example, when looking at the necker cube shown in FIG. 2 (a) and FIG. 2 (d), initially protruding in the direction of 4 to 5 o'clock, A special eye movement occurs.

따라서, 사용자가 착시 버튼을 응시했을 때 발생하는 특별한 눈 움직임을 이용하여 착시 버튼을 목적 없이 단순히 바라본 경우와, 선택을 위해 주의 깊게 바라보는 경우를 구분할 수 있으며, 이를 통해 사용자의 시선 및 눈 움직임을 파악하는 것만으로 다양한 동작이 수행되도록 할 수 있다.Accordingly, it is possible to distinguish between a case where the user looks at an unattended button without a purpose and a case where a user gazes carefully for selection by using a special eye movement generated when the user looks at an illusion button, It is possible to perform various operations only by grasping.

한편, 제어 명령 실행부(130)는 응시 정보 측정부(120)에서 측정된 눈 움직임이 미리 정해진 특정 범위의 값에 해당하면 착시 버튼에 상응하는 제어 명령을 실행할 수 있다.The control command execution unit 130 may execute a control command corresponding to the optical illusion button when the eye movement measured by the gaze information measurement unit 120 corresponds to a predetermined range of values.

이하, 사용자가 '착시 버튼을 응시하여 눈 움직임 및 동공 크기의 변화가 특정 범위의 값에 해당하는 경우'를 설명의 편의 상 '인지 전환'이라고 표현하도록 하며, 본 발명은 이와 같은 인지 전환이 발생할 경우 현재 응시하는 착시 UI에 대한 실행 명령이 있다고 판단한다. Hereinafter, when the user gazes at the optical illusion button and the change of the eye movement and the pupil size corresponds to the value of the specific range, the user is referred to as 'conversion' for convenience of explanation. , It is determined that there is an execution command for the optical illusion UI currently being examined.

일 실시예로서, 착시 버튼이 토글 버튼으로 구현되는 경우 제어 명령 실행부(130)는 사용자가 착시 UI에 대한 인지 전환이 이루어질 때마다 ON(제1 상태)과 OFF(제2 상태)에 해당하는 제어 명령을 실행할 수 있다. 물론, 제1 상태가 OFF이고 제2 상태가 ON이 되도록 구현할 수도 있다.In one embodiment, when an illusion button is implemented as a toggle button, the control command execution unit 130 generates a control command corresponding to an ON (first state) and OFF (second state) A control command can be executed. Of course, the first state may be OFF and the second state may be ON.

다른 실시예로서, 착시 UI가 토글 버튼이 아닌 단순 버튼으로 구현되는 경우 제어 명령 실행부(130)는 사용자가 착시 UI에 대한 인지 전환이 이루어질 때마다 동일한 제어 명령을 실행할 수 있다.In another embodiment, when the UI is implemented as a simple button rather than as a toggle button, the control command execution unit 130 may execute the same control command each time the user performs the recognition change for the UI.

예를 들어, 사용자가 가상 키보드의 특정 키를 응시하면, 해당 키의 문자를 화면에 1회 표시할 수 있다.For example, when a user looks at a specific key of a virtual keyboard, the character of the key can be displayed once on the screen.

또한 제어 명령 실행부(130)는 복수의 착시 UI를 이용하여 드래그나 블록 설정에 해당하는 제어 명령을 실행할 수 있다.In addition, the control command execution unit 130 can execute a control command corresponding to the drag or block setting using a plurality of illusion UIs.

일 실시예로서 문서의 문장이나 단락별로 시작 지점과 종료 지점에 착시 버튼을 각각 표시하고, 특정 단락의 시작 지점에 표시된 착시 버튼을 응시한 후 해당 단락 또는 다른 단락의 종료 지점에 표시된 착시 버튼을 응시하면, 제어 명령 실행부(130)는 사용자가 응시한 시작 지점의 착시 버튼부터 종료 지점의 착시 버튼까지 해당 단락에 블록이 설정되도록 할 수 있다.In one embodiment, an illusion button is displayed at a start point and an end point of a sentence or a paragraph of a document, and an illusion button displayed at a start point of a specific paragraph is looked at and an illusion button displayed at an end point of the paragraph or another paragraph , The control command execution unit 130 may set a block in the corresponding section from the illusion button at the start point of the user to the illusion button at the end point.

한편, 착시 UI 상태 변경부(140)는 제어 명령 실행부(130)에서 착시 버튼의 제1 상태에 상응하는 제어 명령이 실행되면, 해당 착시 버튼의 제1 상태를 제2 상태로 변경시켜 화면에 표시할 수 있다.On the other hand, when the control command corresponding to the first state of the eyesight button is executed in the control command execution unit 130, the eyesight UI state change unit 140 changes the first state of the eyesight button to the second state, Can be displayed.

일 실시예로서 착시 UI 상태 변경부(140)는 착시 버튼이 ON인 상태에서 선택됐을 때의 제어 명령이 실행되면, 해당 착시 버튼을 OFF 상태로 변경하여 화면에 표시할 수 있다.As an embodiment, the UI UI changing unit 140 may change the corresponding optical illusion button to the OFF state and display it on the screen when the control command when the optical illusion button is selected in the ON state is executed.

사용자는 해당 착시 버튼을 선택하여 현재 진행되는 동작을 중단하기 원하는 경우, OFF 상태로 표시된 해당 착시 버튼을 다시 응시함으로써 착시 버튼이 OFF인 상태에서 선택됐을 때의 제어 명령이 실행되도록 할 수 있다. 이 때 해당 착시 버튼의 상태는 다시 ON 상태로 변경되어 표시될 수 있다.When the user desires to stop the current operation by selecting the corresponding optical illusion button, the user may retake the corresponding optical illusion button displayed in the OFF state so that the control command when the illusion button is selected in the OFF state can be executed. At this time, the state of the optical illusion button can be changed to the ON state and displayed.

다른 실시예로서, 착시 UI 상태 변경부(140)는 착시 버튼이 선택되었는지 또는 선택되지 않았는지를 제1 상태와 제2 상태로 표시할 수 있다.As another embodiment, the illus- tioned UI state changing section 140 may display in the first state and the second state whether the illusion button is selected or not selected.

예를 들어 착시 버튼을 이용하여 가상 키보드를 구현한 경우, 사용자가 특정 키를 응시하여 해당 키가 선택되면 착시 UI 상태 변경부(140)는 해당 키를 제1 상태(미선택 표시)에서 제2 상태(선택 표시)로 표시할 수 있으며, 다른 키가 선택되면 먼저 선택되었던 키는 제2 상태에서 제1 상태로 표시할 수 있다.For example, when a virtual keyboard is implemented using an illusion button, if the user gazes at a specific key and the corresponding key is selected, the UI UI change unit 140 changes the key from the first state (unselected) to the second state (Selectable display). When another key is selected, the first key selected can be displayed from the second state to the first state.

물론, 착시 UI 상태 변경은 필수적인 것은 아니며, 착시 UI의 상태 변경을 수행하지 않고 착시 UI에 상응하는 제어 명령만을 수행할 수 있을 것이다. Of course, it is not essential that the UI state change is performed, and only the control command corresponding to the UI UI can be performed without changing the state of the UI.

또 다른 실시예로서, 마우스 커서를 착시 UI로 제공하면서, 해당 착시 UI로 구현된 마우스 커서를 바라보면서 인지 전환이 이루어질 경우 마우스 클릭 명령을 실행할 수도 있을 것이다. In another embodiment, the mouse cursor may be displayed as an illusion UI, and a mouse click command may be executed when the user performs a changeover while looking at a mouse cursor implemented in the illusionary UI.

이하에서는 응시 정보 측정부(120)에서 인지 전환을 감지하는 방법에 대해 설명한다. 앞서 설명한 바와 같이, 착시 UI를 응시하여 인지 전환이 이루어지게 되면 특별한 눈 움직임이 발생한다. Hereinafter, a method of detecting the cognitive change in the test information measuring unit 120 will be described. As described above, special eye movements occur when the user recognizes the user's eyes and switches the eyesight.

인지 전환이 이루어질 때 발생하는 특별한 눈 움직임은 시선 고정 포인트가 순간적으로 빠르게 변화되는 시선 도약(Saccadic Movement)에 따른 시선 고정 포인트의 변화, 눈의 초점 거리의 변화(Vergence) 및 동공 사이즈의 변화를 포함한다. Special eye movements that occur when cognitive conversion occurs include changes in gaze fixation points due to saccadic movement in which the gaze fixation point changes instantaneously, changes in the focal distance of the eye (vergence), and change in pupil size do.

Necker cube와 같은 착시 UI를 바라보면서 인지 전환이 이루어지게 되면, 일반적인 눈 움직임과는 달리 시선 고정 포인트가 순간적으로 빠르게 변화한다. 이러한 변화는 20ms~40ms 사이의 시간에 이루어진다. When the eye-switching UI is performed while looking at the UI like the Necker cube, the eye-gazing point changes momentarily, unlike the normal eye movement. This change takes place between 20 ms and 40 ms.

응시 정보 측정부(120)는 카메라 또는 안구 전위 센서와 같은 다양한 센서를 이용하여 시선 도약(Saccadic Movement)가 발생하는지 여부를 판단하며, 이는 미리 설정된 임계 시간 내에 임계 범위 이상에서 시선 고정 포인트가 변화되는지 여부를 판단하는 것이다. The gaze information measuring unit 120 determines whether or not a saccadic movement occurs by using various sensors such as a camera or an ocular potential sensor. The gaze information measuring unit 120 determines whether a gaze fixation point is changed over a critical range within a predetermined threshold time .

또한, 응시 정보 측정부(120)는 눈의 초점 거리의 변화(Vergence)를 감지하며, 이는 두 눈이 모이는 정도를 측정하여 감지할 수 있을 것이다. 사용자가 바라보는 디스플레이는 평면이므로 디스플레이를 계속 보고 있는 상태라면 초점 거리의 변화가 예외적인 경우를 제외하고는 발생하지 않는다. 그러나, Necker cube와 같은 착시 UI를 바라보면서 인지 전환이 발생하게 되면, 순간적으로 초점 거리의 변화가 발생하게 되며(순간적으로 두 눈이 모이는 정도가 달라짐), 응시 정보 측정부(120)는 이와 같은 초점 거리의 변화가 발생하는지 여부를 판단하는 것이다. In addition, the gaze information measuring unit 120 detects a change in the focal distance of the eye, which can be detected by measuring the degree of convergence of the two eyes. The display that the user is viewing is flat, so if the display is still being viewed, the change in focus distance will not occur except in exceptional cases. However, if a change of eyes occurs while looking at an illusion UI such as a Necker cube, a change in focal distance instantaneously occurs (instantaneous change in degree of convergence of two eyes) It is determined whether or not a change of the focal distance occurs.

또한, 응시 정보 측정부(120)는 동공 사이즈의 변화가 발생하는지 여부를 감지한다. 인지 전환이 이루어질 때 순간적인 동공 사이즈의 변화가 발생하며, 이러한 사이즈 변화를 카메라 등을 이용하여 감지하는 것이다. In addition, the gaze information measuring unit 120 detects whether or not a change in the pupil size occurs. When the cognitive conversion is performed, a change in the pupil size occurs instantaneously, and the change in size is detected by using a camera or the like.

응시 정보 측정부(120)에서 시선 도약, 초점 거리 변화 및 동공 사이즈 변화 중 적어도 하나가 감지될 경우, 제어 명령 실행부(130)는 인지 전환이 이루어졌다고 판단하여 사용자가 현재 바라보고 있는 UI를 실행하도록 한다. When at least one of a gaze jump, a focal length change, and a pupil size change is detected by the gaze information measurement unit 120, the control command execution unit 130 determines that the recognition change has been made and executes the UI currently viewed by the user .

한편, 제어부(150)는 명령 입력 장치(100)의 구성 요소들, 예를 들어 시선 추적부(110), 응시 정보 측정부(120), 제어 명령 실행부(130) 및 착시 UI 상태 변경부(140)가 전술한 동작을 수행하도록 제어할 수 있으며, 저장부(160) 또한 제어할 수 있다.The control unit 150 controls the components of the command input device 100 such as the gaze tracking unit 110, the gaze information measurement unit 120, the control instruction execution unit 130, 140 may perform the above-described operation, and the storage unit 160 may also be controlled.

한편, 저장부(160)는 제어부(150)가 명령 입력 장치(100)의 구성 요소들을 제어하도록 하는 알고리즘 및 해당 알고리즘에 따라서 제어하는 과정에서 필요하거나 파생되는 다양한 데이터를 저장할 수 있다.Meanwhile, the storage unit 160 may store various data required or derived in the course of controlling according to the algorithm and the algorithm for allowing the controller 150 to control the components of the command input device 100.

도 3은 본 발명의 일 실시예에 따른 착시 UI를 이용하여 명령을 입력받는 과정을 도시한 흐름도이다.3 is a flowchart illustrating a process of receiving an instruction using an illusion UI according to an exemplary embodiment of the present invention.

도 3의 과정은 명령 입력 장치(100)에 의해 수행될 수 있으며, 사용자가 바라보는 화면에는 착시 버튼이 포함된 사용자 인터페이스가 표시되어 있다.3 can be performed by the command input device 100, and a user interface including an illusion button is displayed on a screen viewed by the user.

먼저, 명령 입력 장치(100)는 화면을 바라보는 사용자의 시선을 추적한다(S301).First, the command input device 100 tracks the line of sight of the user looking at the screen (S301).

S301 후, 명령 입력 장치(100)는 사용자의 시선이 화면에 표시된 다수의 착시 UI 중 특정 착시 UI를 응시하는지 확인한다(S302).After step S301, the command input device 100 confirms whether the user's gaze looks at a specific illusion UI among a plurality of illusion UIs displayed on the screen (S302).

S302의 확인 결과 특정 착시 UI를 응시하면, 명령 입력 장치(100)는 사용자의 눈 움직임을 감지한다(S303).As a result of the determination in step S302, the command input device 100 detects a user's eye movement when the specific illusion UI is examined (S303).

S303 후, 명령 입력 장치(100)는 감지된 눈 움직임이 인지 전환이 이루어질 때 이루어지는 움직임인지 여부를 판단하고, 판단 결과 해당되면 사용자가 응시한 착시 UI에 대한 인지 전환이 이루어졌다고 판단하며 제1 상태에 상응하는 제어 명령을 실행한다(S304). 앞서 설명한 바와 같이, 시선 도약에 따른 순간적인 시선 고정 포인트의 변화, 초점 거리의 변화 및 동공 사이즈의 변화 중 적어도 하나가 발생할 경우 인지 전환이 이루어졌다고 판단한다. After step S303, the command input device 100 determines whether or not the sensed eye movement is a movement performed when the recognition change is made. If the determination is affirmative, the command input device 100 determines that recognition change has been made to the illusion UI (S304). As described above, if at least one of the change of the gaze fixation point, the change of the focal length, and the change of the pupil size due to the visual gaze occurs, it is determined that the change has been made.

S304의 제어 명령이 실행된 후, 명령 입력 장치(100)는 해당 착시 UI의 상태를 제1 상태에서 제2 상태로 변경하여 화면에 표시한다(S305).After the control command in S304 is executed, the command input device 100 changes the state of the illusive UI from the first state to the second state and displays it on the screen (S305).

앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.The above-described technical features may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium.

상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination.

상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The program instructions recorded on the medium may be those specially designed and constructed for the embodiments or may be available to those skilled in the art of computer software.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware device may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다.It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included within the scope of the present invention.

100 : 착시 UI를 이용하여 명령을 입력받는 장치(명령 입력 장치)
110 : 시선 추적부
120 : 응시 정보 측정부
130 : 제어 명령 실행부
140 : 착시 UI 상태 변경부
150 : 제어부
100: a device (command input device) for receiving a command by using an ill-
110: eye tracking unit
120: Examination information measuring section
130: Control command execution unit
140: UI state changing section
150:

Claims (15)

착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)을 이용하여 명령을 입력하는 장치로서,
화면을 바라보는 사용자의 시선을 추적하는 시선 추적부;
상기 사용자의 시선이 상기 화면에 표시된 특정 착시 UI를 응시하면, 상기 사용자의 눈 움직임을 측정하는 응시 정보 측정부; 및
상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단될 경우, 상기 착시 UI에 상응하는 제어 명령을 실행하는 제어 명령 실행부
를 포함하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
An apparatus for inputting a command using a user interface (hereinafter referred to as " illusion UI ") using an image causing an illusion,
A line of sight tracking unit for tracking a line of sight of a user viewing the screen;
A gaze information measuring unit for measuring an eye movement of the user when the gaze of the user gazes at a specific illusion UI displayed on the screen; And
When the measured eye movement is determined to be an eye movement corresponding to the cognitive switch, a control command execution unit
And an input unit for inputting an instruction using the optical illusion UI.
제1항에 있어서,
상기 인지 전환에 상응하는 눈 움직임은 시선 고정 포인트가 순간적으로 변환하는 시선 도약, 눈의 초점 거리의 변화 및 동공 사이즈의 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
The method according to claim 1,
Wherein the eye movement corresponding to the cognitive conversion includes at least one of a gaze jump instantaneously converted by the gaze fixation point, a change of the focal distance of the eye, and a change of the pupil size.
제1 항에 있어서,
상기 착시 UI에 상응하는 제어 명령이 실행되면, 상기 착시 UI의 제1 상태를 제2 상태로 변경시켜 상기 화면에 표시하는 착시 UI 상태 변경부
를 더 포함하되,
상기 착시 UI의 제1 상태와 제2 상태는 서로 다른 제어 명령에 각각 상응하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
The method according to claim 1,
When the control command corresponding to the illusion UI is executed, changes the first state of the illusionary UI to the second state and displays it on the screen,
Further comprising:
Wherein the first state and the second state of the illusion UI correspond to different control commands, respectively.
제3항에 있어서,
상기 착시 UI는 버튼(button)을 포함하며, 상기 버튼의 동작 여부가 상기 제1 상태와 제2 상태로 표시되는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
The method of claim 3,
Wherein the disguise UI includes a button and whether or not the button is operated is displayed in the first state and the second state.
제4 항에 있어서,
상기 버튼은 네커의 정육면체(Necker cube)로 구현되며, 서로 다른 색상 및 회전 각도 중 하나 이상을 적용하여 복수의 버튼으로 구현되는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
5. The method of claim 4,
Wherein the button is implemented as a necker cube and is implemented as a plurality of buttons by applying at least one of different colors and rotation angles.
제1 항에 있어서,
상기 제어 명령 실행부는
복수의 착시 UI가 시간 차를 가지고 응시되며 각각의 착시 UI의 응시에 대한 상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단되면, 상기 복수의 착시 UI가 형성하는 면적에 드래그 또는 블록을 지정하는 제어 명령을 실행하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
The method according to claim 1,
The control command execution unit
When a plurality of illusion UIs are examined with a time difference and it is determined that the measured eye movement with respect to the gazing of each illusion UI is eye movement corresponding to the recognition change, a drag or a block is added to the area formed by the plurality of illusion UI And the control command to be input is executed.
제1 항에 있어서,
상기 착시 UI가 마우스 커서이고 상기 응시 정보 측정부에서 인지 전환에 상응하는 눈 움직임이 감지될 경우, 상기 제어 명령 실행부는 상기 마우스 커서를 클릭하는 제어 명령을 실행하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 장치.
The method according to claim 1,
Wherein the control command execution unit executes a control command to click the mouse cursor when the illusion UI is a mouse cursor and the eye movement corresponding to the recognition change is detected in the gazing information measurement unit Input device.
착시 효과를 일으키는 이미지를 이용한 사용자 인터페이스(이하 '착시 UI'라 칭함)을 이용하여 명령을 입력하는 방법에 있어서,
(a) 화면을 바라보는 사용자의 시선을 추적하는 단계
(b) 상기 사용자의 시선이 상기 화면에 표시된 특정 착시 UI를 응시하면, 상기 사용자의 눈 움직임을 측정하는 단계; 및
(c) 상기 측정된 눈 움직임이 인지 전환에 상응하는 눈 움직임이라고 판단될 경우, 상기 착시 UI에 상응하는 제어 명령을 실행하는 단계
를 포함하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
A method of inputting a command using a user interface (hereinafter referred to as " illusion UI ") using an image causing an illusion,
(a) tracking the user's gaze on the screen
(b) measuring the eye movement of the user when the user's gaze gazes at the specific optical illusion UI displayed on the screen; And
(c) executing a control command corresponding to the illusion UI when it is determined that the measured eye movement is an eye movement corresponding to a cognitive conversion
And inputting a command for inputting a command using the optical illusion UI.
제8항에 있어서,
상기 인지 전환에 상응하는 눈 움직임은 시선 고정 포인트가 순간적으로 변환하는 시선 도약, 눈의 초점 거리의 변화 및 동공 사이즈의 변화 중 적어도 하나를 포함하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
9. The method of claim 8,
Wherein the eye movement corresponding to the cognitive conversion includes at least one of a gaze jump instantaneously converted by the gaze fixation point, a change of the focal distance of the eye, and a change of the pupil size.
제8 항에 있어서,
(d) 상기 착시 UI에 상응하는 제어 명령이 실행되면, 상기 착시 UI의 제1 상태를 제2 상태로 변경시켜 상기 화면에 표시하는 단계
를 더 포함하되,
상기 착시 UI의 제1 상태와 제2 상태는 서로 다른 제어 명령에 각각 상응하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
9. The method of claim 8,
(d) changing a first state of the illusion UI to a second state and displaying it on the screen when a control command corresponding to the illusion UI is executed
Further comprising:
Wherein the first state and the second state of the illusion UI correspond to different control commands, respectively.
제10 항에 있어서,
상기 착시 UI는 버튼(button)을 포함하며, 상기 버튼의 동작 여부가 상기 제1 상태와 제2 상태로 표시되는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
11. The method of claim 10,
Wherein the illusion UI comprises a button and whether or not the button is operated is displayed in the first state and the second state.
제11 항에 있어서,
상기 버튼은 네커의 정육면체(Necker cube)로 구현되며, 서로 다른 색상 및 회전 각도 중 하나 이상을 적용하여 복수의 버튼으로 구현되는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
12. The method of claim 11,
Wherein the button is implemented as a necker cube and is implemented as a plurality of buttons by applying one or more of different colors and rotation angles.
제8 항에 있어서,
복수의 착시 UI가 시간 차를 가지고 응시되며 각각의 착시 UI의 응시에 대한 상기 측정된 눈 움직임이 미리 정해진 임계 값의 범위에 해당하면, 상기 복수의 착시 UI가 형성하는 면적에 드래그 또는 블록을 지정하는 제어 명령을 실행하는 단계
를 더 포함하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
9. The method of claim 8,
A plurality of illusion UIs are examined with a time difference, and if the measured eye movement for each eye UI is in a range of a predetermined threshold value, a drag or a block is assigned to the area formed by the plurality of illusion UIs A step of executing a control command
And inputting a command for inputting the command using the optical illusion UI.
제8 항에 있어서,
상기 착시 UI가 마우스 커서이고 상기 단계(b)에서 인지 전환에 상응하는 눈 움직임이 감지될 경우, 상기 단계(c)는 상기 마우스 커서를 클릭하는 제어 명령을 실행하는 것을 특징으로 하는 착시 UI를 이용한 명령 입력 방법.
9. The method of claim 8,
Wherein the step (c) executes a control command to click the mouse cursor when the eyesight UI is a mouse cursor and eye movement corresponding to a cognitive switch is detected in the step (b) Command input method.
제8 항 내지 제13 항 중 어느 하나의 항에 따른 방법을 수행하기 위한 일련의 명령을 포함하는 기록 매체에 저장된 컴퓨터 프로그램.



A computer program stored in a recording medium comprising a series of instructions for performing the method according to any one of claims 8 to 13.



KR1020170083034A 2017-06-30 2017-06-30 Method and apparatus for inputting command using illusion user interface KR101943206B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170083034A KR101943206B1 (en) 2017-06-30 2017-06-30 Method and apparatus for inputting command using illusion user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170083034A KR101943206B1 (en) 2017-06-30 2017-06-30 Method and apparatus for inputting command using illusion user interface

Publications (2)

Publication Number Publication Date
KR20190002831A KR20190002831A (en) 2019-01-09
KR101943206B1 true KR101943206B1 (en) 2019-04-17

Family

ID=65017659

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170083034A KR101943206B1 (en) 2017-06-30 2017-06-30 Method and apparatus for inputting command using illusion user interface

Country Status (1)

Country Link
KR (1) KR101943206B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101602363B1 (en) * 2008-09-11 2016-03-10 엘지전자 주식회사 3 Controling Method of 3 Dimension User Interface Switchover and Mobile Terminal using the same
KR102326489B1 (en) * 2014-11-24 2021-11-16 삼성전자주식회사 Electronic device and method for controlling dispaying
KR20160109443A (en) * 2015-03-11 2016-09-21 주식회사 비주얼캠프 Display apparatus using eye-tracking and method thereof

Also Published As

Publication number Publication date
KR20190002831A (en) 2019-01-09

Similar Documents

Publication Publication Date Title
US11977677B2 (en) Gesture based user interfaces, apparatuses and systems using eye tracking, head tracking, hand tracking, facial expressions and other user actions
US10558272B2 (en) Gesture control via eye tracking, head tracking, facial expressions and other user actions
US10137363B2 (en) Gesture based user interfaces, apparatuses and control systems
US20190265802A1 (en) Gesture based user interfaces, apparatuses and control systems
Majaranta et al. Eye tracking and eye-based human–computer interaction
US10191558B2 (en) Multipurpose controllers and methods
US10254844B2 (en) Systems, methods, apparatuses, computer readable medium for controlling electronic devices
Drewes Eye gaze tracking for human computer interaction
De Paolis et al. The impact of the input interface in a virtual environment: the Vive controller and the Myo armband
Kajastila et al. Eyes-free interaction with free-hand gestures and auditory menus
US11481037B2 (en) Multipurpose controllers and methods
US20190172264A1 (en) Appratus and method of monitoring vr sickness prediction model for virtual reality content
US11029758B2 (en) Dynamic command remapping for human-computer interface
TW202301871A (en) Optical system with improvied user experiemce and accurate eye-tracking and related method
Jota et al. Palpebrae superioris: Exploring the design space of eyelid gestures
Bulling et al. Eyemote–towards context-aware gaming using eye movements recorded from wearable electrooculography
KR101943206B1 (en) Method and apparatus for inputting command using illusion user interface
RU2522848C1 (en) Method of controlling device using eye gestures in response to stimuli
Deng Multimodal interactions in virtual environments using eye tracking and gesture control.
Skovsgaard Noise challenges in monomodal gaze interaction
JP6988030B1 (en) Rehabilitation equipment and programs
EP4345584A1 (en) Control device, control method, and program
Menges et al. Eye tracking for interaction: adapting multimedia interfaces
Penkar Hypertext Navigation with an Eye Gaze Tracker
Schott et al. Lean-Interaction: passive image manipulation in concurrent multitasking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant