KR101685430B1 - Smart glass interface system and method using gaze gesture - Google Patents

Smart glass interface system and method using gaze gesture Download PDF

Info

Publication number
KR101685430B1
KR101685430B1 KR1020130118894A KR20130118894A KR101685430B1 KR 101685430 B1 KR101685430 B1 KR 101685430B1 KR 1020130118894 A KR1020130118894 A KR 1020130118894A KR 20130118894 A KR20130118894 A KR 20130118894A KR 101685430 B1 KR101685430 B1 KR 101685430B1
Authority
KR
South Korea
Prior art keywords
information
execution
eye
gaze
menu
Prior art date
Application number
KR1020130118894A
Other languages
Korean (ko)
Other versions
KR20150041233A (en
Inventor
박성기
김동환
채희제
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020130118894A priority Critical patent/KR101685430B1/en
Publication of KR20150041233A publication Critical patent/KR20150041233A/en
Application granted granted Critical
Publication of KR101685430B1 publication Critical patent/KR101685430B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

시선과 스마트 안경간 다양한 동작을 실행시킬 수 있는 스마트 안경 인터페이스 시스템 및 방법이 개시된다. 이를 위해 본 발명은 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부; 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부를 포함한다.
이에, 본 발명은 정확성이 뛰어나 리모콘 조작이 없이도 다양한 형태의 전자기기와 실행 메뉴를 동작시킬 수 있고, 시선의 인식 오차를 줄일 수 있다.
A smart glasses interface system and method capable of performing various operations between a line of sight and smart glasses is disclosed. To this end, the present invention provides a visual display device, comprising: a visual-line sensing unit for generating eye-blending information by detecting at least two combined visual-line directions among a plurality of visual-line directions, generating eye blinking information by sensing blinking degree of eyes; A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate an arbitrary electronic device or to execute movement, selection and cancellation of the execution menu.
Therefore, the present invention is excellent in accuracy, so that various types of electronic apparatuses and execution menus can be operated without a remote control operation, and the recognition error of the line of sight can be reduced.

Description

게이즈 제스처를 이용한 스마트 안경 인터페이스 시스템 및 방법{SMART GLASS INTERFACE SYSTEM AND METHOD USING GAZE GESTURE}TECHNICAL FIELD [0001] The present invention relates to a smart glasses interface system and method using a gizmic gesture,

본 발명은 스마트 안경 인터페이스 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 시선과 스마트 안경간 다양한 동작을 실행시킬 수 있는 스마트 안경 인터페이스 시스템 및 방법에 관한 것이다.The present invention relates to a smart glasses interface system and method, and more particularly, to a smart glasses interface system and method capable of performing various operations between a sight line and smart glasses.

최근에는, 정보화 및 무선 인터페이스 기술이 발전함에 따라 사용자 편의적인 다양한 형태의 전자기기가 등장하고 있다. 대표적인 전자기기로서 스마트 안경을 들 수 있다.2. Description of the Related Art [0002] In recent years, as information and wireless interface technologies have evolved, various types of user-friendly electronic devices have emerged. As a typical electronic device, smart glasses can be mentioned.

상기 스마트 안경은 사용자가 원하는 정보를 실시간으로 보여는 안경. 인터넷 연결이 가능하고, 마이크나 카메라가 탑재되어 사용자가 원하는 정보를 제공해 준다. 예를 들어 하늘을 보면 일기 예보가, 벽을 바라보면 친구와의 약속정보를 보여다. 또 사용자는 안경을 통해 음악도 들을 수 있으며, 전화가 오면 이를 중단하고 영상 통화도 할 수 있다. The smart glasses are glasses that display information desired by a user in real time. Internet connection is available, and a microphone or camera is installed to provide the user with the desired information. For example, when you look at the sky, weather forecasts show you the promise information with your friends when you look at the wall. The user can also listen to music through the glasses, stop the phone when he or she is calling, and make video calls.

그러나, 위와 같은 스마트 안경의 기능들은 아직까지 현실화되지 못하고 있으며, 그나마 시선 추적이란 기술을 이용하여 위와 같은 스마트 안경의 일부 기능을 수행하기에 이르렀다. However, the functions of the above-mentioned smart glasses have not been realized yet, and they have accomplished some functions of the above-mentioned smart glasses by using the technique of eye tracking.

예를 들면, '구글 글래스'라 불리우는 스마트 안경은 음성 인식을 접목하거나 시선이 머무는 정도를 파악하여 영상과 같은 정보를 선택하고 스마트 안경에 표시할 수 있었다. For example, smart glasses called 'Google Glass' were able to combine speech recognition and determine the extent of eye gaze, so that information such as images could be selected and displayed in smart glasses.

이와 같이, 종래의 스마트 안경은 시선이 머무는 정도만을 인식 대상으로 삼고 있기 때문에 다양한 동작(기능)을 행할 수 없을 뿐만 아니라 오차가 자주 발생하는 문제점이 있었다.In this way, since the conventional smart glasses use only the degree of staying of the eyes as objects to be recognized, various operations (functions) can not be performed and errors are frequently generated.

한국공개특허 : 제2011-0101374호, 공개일자 : 2011년 09월 16일, 발명의 명칭 : 시선 추적 안경을 이용한 유비쿼터스 리모트 컨트롤러.Korean Patent Publication No. 2011-0101374, Publication Date: September 16, 2011 Title of the invention: Ubiquitous remote controller using eye tracking glasses.

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 적어도 2개 이상의 조합된 시선과 눈 깜박임 정도를 이용하여 안경 화면에 표시된 다양한 형태의 실행 메뉴와 내외부의 전자기기를 매우 편리하게 동작시킬 수 있는 스마트 안경 인터페이스 시스템을 제공하는데 그 목적이 있다.The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and a method thereof, which can operate various types of execution menus and internal and external electronic apparatuses displayed on a glasses screen very conveniently using at least two combined lines of sight and eye blinking degree And to provide a smart glasses interface system.

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 기능을 수행하기 위한, 본 발명의 특징은 다음과 같다.The features of the present invention for achieving the objects of the present invention as described above and performing the characteristic functions of the present invention described below are as follows.

본 발명의 일 관점에 따르면, 게이즈 제스처(gaze gesture)를 이용한 스마트 안경 인터페이스 시스템으로서, 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부; 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부;를 포함하는 스마트 안경 인터페이스 시스템이 제공된다.According to one aspect of the present invention, there is provided a smart eyeglass interface system using a gaze gesture, comprising: at least two combined directions of sight lines of a plurality of eye directions to generate eye pair information; A visual-line detecting sensor unit for detecting eye blinking information and generating eye flicker information; A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate any electronic device or to execute movement, selection and cancellation of the execution menu do.

여기서, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 시선조합 정보를 상기 실행 메뉴간 이동 기능에 활용할 경우, 상기 눈 깜박임 정보를 이동된 실행 메뉴의 선택과 취소 기능에 활용할 수 있다.Here, the processor unit according to one aspect of the present invention may utilize the blinking information for selecting and canceling the moved execution menu when the gaze combination information is utilized for the movement function between the execution menus.

또한, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 시선조합 정보를 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용할 경우 상기 눈 깜박임 정보를 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용할 수 있다.In addition, when the processor unit according to one aspect of the present invention utilizes the eye-sight combination information for the movement, selection, and cancellation of the execution menu, the processor blinks the blinking information to the selection and cancellation function of the sub- Can be utilized.

또한, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 유무선 통신 인터페이스로 연결된 상기 전자기기의 표시 화면에 표시할 수 있다.In addition, the processor unit according to one aspect of the present invention can display the corresponding image on the display screen of the electronic device connected to the eyeglass screen via a wired / wireless communication interface by execution according to the selection of the execution menu and sub execution menu.

또한, 본 발명의 다른 일 관점에 따르면, 게이즈 제스처(gaze gesture)를 이용한 스마트 안경 인터페이스 방법으로서, (a) 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 단계; (b) 눈의 시선과 깜박임 정도를 시선 감지 센서부에서 감지하는 단계; (c) 상기 감지를 통해 시선 조합 정보와 눈 깜박임 정보를 시선 감지 센서부에서 생성하는 단계; 및 (d) 생성된 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 프로세서부에서 실행시키는 단계를 포함하는 스마트 안경 인터페이스 방법이 제공된다.According to another aspect of the present invention, there is provided a smart glasses interface method using a gaze gesture, comprising: (a) displaying a plurality of programmed execution menus on a glasses screen; (b) detecting a line of sight of the eye and a degree of flickering in the line of sight sensor; (c) generating gaze combination information and eye blinking information through the sight sensing sensor unit through the sensing; And (d) generating a predetermined command signal through the generated gaze combination information and eye blinking information to operate an arbitrary electronic device, or to execute, move, select and cancel the execution menu in the processor unit. A glasses interface method is provided.

여기서, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 시선조합 정보가 상기 실행 메뉴간 이동 기능에 활용될 경우, 상기 눈 깜박임 정보는 이동된 실행 메뉴의 선택과 취소 기능에 활용될 수 있다.Here, in the step (d) according to another aspect of the present invention, when the eye-sight combination information is utilized in the action menu moving function, the eye blinking information can be utilized for selecting and canceling the moved action menu have.

또한, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 시선조합 정보가 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용될 경우 상기 눈 깜박임 정보는 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용될 수 있다.According to another aspect of the present invention, in the step (d), when the gaze combination information is utilized for the movement, selection and cancellation of the execution menu, the blinking information may be displayed on the submenu of the submenu It can be used for selection and cancellation functions.

또한, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 전자기기의 표시 화면에 표시할 수 있다.According to another aspect of the present invention, in the step (d), the corresponding image can be displayed on the glasses screen and the display screen of the electronic device by execution according to the selection of the execution menu and the sub-execution menu.

이상과 같이 본 발명에 따르면, 메뉴얼에 따라 두뇌에 정리된 시선 방향과 눈의 깜박임 정도만을 숙지하게 되면 리모콘 조작이 없이도 다양한 형태의 전자기기와 실행 메뉴를 동작시킬 수 있는 효과가 있다. As described above, according to the present invention, it is possible to operate various types of electronic devices and execution menus without having to operate the remote controller by only knowing the direction of the eyes and the degree of blinking of eyes arranged in the brain according to the manual.

예를 들면, 시선과 눈의 깜박임 정도만을 숙지하게 되면, 스마트폰의 특정 기능을 실행시켜 디스플레이 시키거나 TV를 온오프 시키고, 채널을 선택하는 등, 유무선 네트워크와 연결된 모든 전자기기를 매우 편리하게 동작시킬 수 있는 효과가 있다.For example, it is very convenient to operate all electronic devices connected to a wired / wireless network, such as executing a specific function of a smart phone to display and turning on / off a TV, selecting a channel, There is an effect that can be made.

또한, 본 발명에 따르면, 기존의 스마트 안경(예: 시선이 머무는 정도만을 인식)에 비하여 시선 처리가 명확한 시선 방향의 이동성과 눈의 크기로 정량화된 눈의 깜박임 정도를 통해 메뉴의 이동과 선택성이 뛰어나 인식 오차를 줄일 수 있는 효과가 있다. Further, according to the present invention, compared to conventional smart glasses (for example, only recognizing the degree of staying in the eyes), the mobility of the gaze direction and the flicker of the eyes quantified as the size of the eyes enable movement and selectivity of the menu It is possible to reduce the recognition error.

도 1은 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)을 예시적으로 나타낸 도면이다.
도 2 내지 도 5는 본 발명의 제1 실시예에 따른 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 동작 상태를 나타낸 도면이다.
도 6(a) 내지 도 도 6(c)는 본 발명의 제1 실시예에 따른 시선조합 정보의 방향성 조합을 예시적으로 나타낸 도면이다.
도 7은 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)을 예시적으로 나타낸 순서도이다.
FIG. 1 is an exemplary diagram illustrating a smart glasses interface system 100 according to a first embodiment of the present invention.
FIGS. 2 to 5 are diagrams showing an operation state of the execution menu 122 using the eye-combination information and / or the eye flicker information according to the first embodiment of the present invention.
Figs. 6A to 6C are views showing a directional combination of gaze combination information according to the first embodiment of the present invention. Fig.
FIG. 7 is a flowchart illustrating a smart glasses interface method (S100) according to a second embodiment of the present invention.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

제1 실시예First Embodiment

도 1은 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)을 예시적으로 나타낸 도면이다.FIG. 1 is an exemplary diagram illustrating a smart glasses interface system 100 according to a first embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)은 게이즈 제스처(gaze gesture)를 이용하여 다양한 전자기기(140)와 스마트 안경의 특정 기능을 동작시킬 수 있는 인터페이스 시스템으로서, 이를 위하여 시선 감지 센서부(110), 안경 화면부(120), 프로세서부(130), 전자기기(140) 및 유무선 인터페이스(150)를 포함하여 이루어진다. 상기 게이즈 제스처란 시선의 다양한 방향성과 눈 상태를 활용하는 제스처를 의미한다.As shown in FIG. 1, the smart glasses interface system 100 according to the first embodiment of the present invention operates various electronic devices 140 and specific functions of the smart glasses using a gaze gesture The eyeglass screen unit 120, the processor unit 130, the electronic device 140, and the wired / wireless interface 150 to the user. The gesture refers to a gesture that utilizes various directional and eye conditions of the line of sight.

먼저, 본 발명에 따른 시선 감지 센서부(110)는 이후에 설명될 안경 화면부(120)의 대략 테두리 중앙을 따라 구비되어 사람의 시선의 방향성을 추적하고 눈의 깜박임 정도(크기)를 인식하기 위한 센서를 지칭한다. First, the eye-gaze sensor unit 110 according to the present invention is provided along the center of a rough border of the eyeglass screen unit 120 to be described later to track the directionality of a human eye and recognize the degree of blinking ≪ / RTI >

이때, 안경 화면부(120)의 테두리를 따라 구비되 않고, 사람의 시선과 눈의 깜박임 정도을 쉽게 추적가능한 안경 화면부(120)내의 임의의 위치라면, 안경 화면부(120)의 어떤 부위에도 장착될 수 있음은 물론이다.At any point in the eyeglass screen portion 120, the eyeglass screen portion 120 may be mounted on any portion of the eyeglass screen portion 120 without being provided along the rim of the eyeglass screen portion 120, Of course.

상기와 같이 시선(101)의 방향성을 추적하고자, 본 발명에 따른 시선 감지 센서부(120)는 다수의 시선 방향(101) 중 적어도 2개 이상의 조합된 시선 방향(101)을 감지하여 시선 조합 정보를 생성한다. In order to track the directionality of the line of sight 101 as described above, the line of sight sensing unit 120 according to the present invention senses at least two combined line-of-sight directions 101 among a plurality of line-of-sight directions 101, .

상기 시선 방향(101)은 예컨대 총 8개의 시선 방향성을 가질 수 있는데, 즉, 상/하/좌/우 방향과 상/하/좌/우/ 방향 사이에 존재하는 4개의 대각선 방향성을 포함한다. 이에 따라, 8개의 시선 방향(101) 중 적어도 2개상의 방향성을 조합하여 시선 조합 정보를 생성할 수 있게 되는 것이다.The viewing direction 101 may have, for example, a total of eight viewing directions, that is, four diagonal directions existing between the up / down / left / right direction and the up / down / left / right / direction. Accordingly, it is possible to generate gaze combination information by combining the directivity of at least two of the eight gaze directions 101.

아울러, 본 발명에 따른 시선 감지 센서부(110)는 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성한다. 이때, 눈의 깜박임 정도란 눈을 제한된 시간 안에 계속하여 뜨고 있는 상태, 감고 있는 상태 및 둘을 소정의 횟수만큼 반복하는 상태 등을 의미한다. 이는 눈의 크기를 제한된(설정된) 시간에 따라 감지하는 것과 일맥상통할 수도 있다.In addition, the eye-gaze sensor 110 according to the present invention senses the degree of eye flicker and generates eye flicker information. In this case, the degree of flickering of the eye means a state in which the eye continues to be closed within a limited time, a state in which the eye is closed, and a state in which the eye is repeated a predetermined number of times. This may be in line with sensing the size of the eye over a limited (set) amount of time.

다음으로, 본 발명에 따른 안경 화면부(120)는 스마트 안경의 테두리뿐만 아니라 스마트 안경 렌즈와 같은 위치인 안경 화면(121) 등을 구비한다. 상기 안경 화면(121)에는 실행 메뉴(122)들이 표시되고 실행 메뉴(122)의 동작에 의한 영상을 표시하는 역할을 한다.Next, the eyeglass screen unit 120 according to the present invention includes not only the frame of the smart glasses but also the eyeglasses screen 121 which is the same position as the smart eyeglass lens. The eyeglass screen 121 displays execution menus 122 and displays an image based on the operation of the execution menu 122.

상기 실행 메뉴(122)는 다수의 프로그램화된 아이콘 메뉴로서, 예컨대 스마트폰의 디스플레이 화면에 표시되는 앱 아이콘과 유사한 형태를 가질 수 있다.The execution menu 122 may have a plurality of programmed icon menus, for example, similar to an app icon displayed on a display screen of a smartphone.

마지막으로, 본 발명에 따른 프로세서부(130)는 앞서 설명한 시선 감지 센서부(110)에 의해 생성된 시선조합 정보 및/또는 눈 깜박임 정보를 통해 소정의 명령 신호를 생성한다. 예를 들면, 시선조합 정보를 통해 다수의 실행 메뉴(122) 중 임의의 특정 위치에 있는 아이콘으로부터 다른 위치에 있는 아이콘으로 이동시키는 아이콘 이동 명령 신호가 생성되고 눈 깜박임 정보를 통해 이동된 아이콘을 선택할 경우에 아이콘 선택 명령 신호가 생성될 수 있다.Finally, the processor unit 130 according to the present invention generates a predetermined command signal through the eye combination information and / or the eye flicker information generated by the eye-gaze sensor unit 110 described above. For example, an icon movement command signal for moving from an icon at any specific position among a plurality of execution menus 122 to an icon at another position is generated through the eye combination information, and an icon moved through the eye blinking information is selected The icon selection command signal can be generated.

이와 같이 명령 신호가 생성되면, 본 발명에 따른 프로세서부(130)는 상기 명령 신호를 이용하여 유무선 인터페이스(150, 통신망)로 연결된 임의의 전자기기(140), 예컨대 TV, 스마트폰, 휠체어와 같은 전자기기(140)를 동작시키거나 안경 화면(121)에 표시된 실행 메뉴(122)에 대하여 실행 메뉴(122)간 이동과, 이동된 실행 메뉴(122)의 선택 및 취소를 실행시키는데 사용할 수 있게 된다.When the command signal is generated as described above, the processor unit 130 according to the present invention can use any of the electronic devices 140 connected to the wired / wireless interface 150 (communication network), for example, a TV, a smart phone, It can be used to operate the electronic device 140 or to move between the execution menus 122 and execute and cancel the moved execution menus 122 with respect to the execution menus 122 displayed on the glasses screen 121 .

이때, 임의의 명령 신호에 따라 실행메뉴(122)의 이동, 선택 및 취소 기능은 통상적으로 널리 알려진 스마트폰에서 사람의 손에 의한 터치에 의해 메뉴의 이동, 선택 및 취소와 같은 원리가 적용될 수 있다.At this time, the movement, selection and cancellation functions of the execution menu 122 according to an arbitrary command signal can be applied to a principle such as movement, selection and cancellation of a menu by a touch by a human hand in a commonly known smart phone .

예를 들면, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동 기능에 활용(연동될)될 경우에 눈 깜박임 정보를 이동된 실행 메뉴(122)의 선택과 취소 기능에 활용(연동될) 수 있다.For example, when the command signal is used (interlocked) with the movement function between the execution menus 122, the eye blinking information is utilized for the selection and cancel function of the moved execution menu 122 ).

또한, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동, 선택 및 취소 기능에 활용(연동될) 경우에 눈 깜박임 정보를 실행 메뉴(122)에 포함된 서브 실행 메뉴(미도시)의 선택과 취소 기능에 활용(연동될)될 수도 있다.In addition, when the command signal is used (combined) in the movement, selection and cancellation function of the menu 122, the eye blinking information may be displayed on the submenu of the submenu (not shown) included in the execution menu 122 And may be utilized (linked) to the selection and cancellation functions.

이로써, 본 발명에 따른 프로세서부(130)는 실행 메뉴(122) 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상 및 데이터를 안경 화면(121)과 유무선 통신 인터페이스(150)로 연결된 전자기기(140)의 표시 화면에 표시할 수 있게 된다.  The processor unit 130 according to the present invention executes the execution of the execution menu 122 and the execution of the sub execution menu to transmit the corresponding image and data to the electronic device connected to the glasses screen 121 and the wired / wireless communication interface 150 140 on the display screen.

이상에서는 시선조합 정보와 눈 깜박임 정보를 동시에 이용하여 해당 기능이 수행되는 것으로 설명하였지만 둘 중 어느 하나를 통해 위와 같은 모든 기능을 수행할 수도 있음은 물론이다.Although it has been described above that the corresponding function is performed by using the eye combination information and the eye flicker information at the same time, it goes without saying that all of the above functions can be performed through either one of them.

한편, 이상에서 밝힌 전자기기(140)의 동작은 다양한 예가 있을 수 있다. 즉, 휴대폰, TV 등과 같은 전자기기(140)를 온오프시키는 기본적인 동작 뿐만 아니라, 각 전자기기(140)에서 구현된 특정 기능, 예컨대 녹음을 실행시키거나 스마트폰에 구비된 카메라를 동작시키는 등 다양한 기능을 담고 있음을 의미할 수 있다.Meanwhile, the operation of the electronic device 140 described above may be various examples. That is, not only the basic operation of turning on and off the electronic device 140 such as a mobile phone, a TV, etc., but also various functions such as performing a specific function implemented in each electronic device 140, It can mean that it contains a function.

이하에서는, 앞서 설명한 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 이동, 선택 및 취소를 실질적으로 어떻게 이루어지는지를 설명하고자 한다.Hereinafter, how the action menu 122 is actually moved, selected and canceled using the gaze combination information and / or the blinking information described above will be described.

실행메뉴의 실행 예Example of execution menu

도 2 내지 도 5는 본 발명의 제1 실시예에 따른 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 동작 상태를 나타낸 도면이다.FIGS. 2 to 5 are diagrams showing an operation state of the execution menu 122 using the eye-combination information and / or the eye flicker information according to the first embodiment of the present invention.

먼저, 도 2에 도시된 안경화면(121)에는 복수개의 실행메뉴(122)들이 나열된 상태를 보여준다. 상기 도 2에 도시된 1행 1열의 실행메뉴(122)가 선택된 상태(122a)로 가정하면, 도 3에서는 오른쪽으로 향하는 시선방향(101a)의 시선 조합 정보를 통해 1행 3열의 실행메뉴(122)로 이동된 상태(122b)를 보여준다.First, a plurality of execution menus 122 are listed on the eyeglass screen 121 shown in FIG. Assuming that the execution menu 122 of the first row and the first column shown in FIG. 2 is selected (122a), in FIG. 3, the execution menu 122 of one row and three columns (122b). ≪ / RTI >

다음으로, 도 4에서는 눈 깍박임 정보, 예컨대 눈을 두번 깜박려 획득된 눈 깍박임 정보를 통해 1행 3열의 실행메뉴(122)가 선택된 상태(122c)임을 보여준다. 다음으로, 도 5에서는 선택된 1행 2열의 실행메뉴(122)가 취소된 상태(122d)임을 보여준다.
참고로, 상기 실행메뉴(122) 취소는 보통상태 보다 눈을 크게 뜨거나, 적절한 시선조합 또는 복수의 눈깜빡임을 통해 수행되며, 이에 한정되는 것이 아니라 사용자의 편의에 따라 얼마든지 상이하게 설정가능하다.
Next, FIG. 4 shows that the execution menu 122 of the first row and the third column is selected (122c) through the information of the eyebrow pinning information, for example, eyebrow pinning information obtained by blinking the eye twice. Next, FIG. 5 shows that the execution menu 122 of the selected one-row and two-column is the canceled state 122d.
For reference, cancellation of the execution menu 122 is performed by opening eyes more than the normal state, by appropriately combining sight lines or by blinking a plurality of eyes, but is not limited thereto and can be set differently according to the convenience of the user .

이와 같이, 시선조합 정보 및 눈 깜박임 정보를 이용하여 실행메뉴(122)가 이동, 선택 및 취소되는 단적인 상황을 보여주고 있지만, 위와 같은 상태에서 다른 실행메뉴(122)로 이동, 선택 및 취소시에 다른 방향성의 시선조합 정보 및 눈 깜박임 정보가 함께 더 활용될 수 있음은 물론이다.In this way, although the execution menu 122 is moved, selected, and canceled using the eye-sight combination information and the eye blinking information, in the above-described state, when moving, selecting, and canceling the other execution menu 122 It is needless to say that eye direction combination information and eye blink information of different directions can be utilized together.

시선조합 정보의 예Example of gaze combination information

도 6(a) 내지 도 6(c)는 본 발명의 제1 실시예에 따른 시선조합 정보의 방향성 조합을 예시적으로 나타낸 도면이다. 도 6(a)에서는 우방향의 시선조합 정보(101b) 및 그로부터 상방향의 시선조합 정보(101c)가 결합(조합)되고 있음을 보여주고, 도 6(b)에서는 우방향의 시선조합 정보(101d) 및 그로부터 하방향의 시선조합 정보(101e)가 결합(조합)되고 있음을 보여준다.6 (a) to 6 (c) are views showing a directional combination of eye combination information according to the first embodiment of the present invention. 6A shows that the line of sight combination information 101b in the right direction and the line of sight combination information 101c in the upward direction are combined (combined). In Fig. 6B, 101d and the downward-direction gaze combination information 101e are combined (combined).

반면, 도 6(c)에서는 우방향의 시선조합 정보(101f), 그로부터 상방향의 시선조합 정보(101g) 및 그로부터 하방향 대각선의 시선조합 정보(101h)가 결합(조합)되고 있음을 보여준다.On the other hand, FIG. 6C shows that the right-eye line combination information 101f, the upward-direction eye-combination information 101g, and the diagonal line-of-sight combination information 101h from the downward direction are combined (combined).

이와 같은 예를 통해 알 수 있듯이, 본 실시예에서는 적어도 하나 이상의 시선 방향의 조합을 통해 앞서 설명한 전자기기(140)를 동작시키거나 실행메뉴의 이동, 선택 및 취소 기능을 실행시킬 수 있음을 알 수 있을 것이다.
예를 들어, 메뉴 이동은 우방향과 상방향 시선조합을 통해, 메뉴선택은 우방향과 하방향 시선조합을 통해, 취소는 좌방향과 하방향 시선조합을 통해, 실행은 우방향, 상방향 및 좌방향 시선조합을 통해 수행될 수 있으며, 상술한 이동, 선택, 취소 및 실행에 대한 시선조합은 이에 한정되는 것이 아니라 사용자의 편의에 따라 얼마든지 상이하게 설정가능하다.
또한, 상술한 우방향으로부터 상방향 그리고 상기 상방향으로부터 하방향 대각선의 시선조합을 통해 바로가기 기능 등을 설정할 수 있다.
As can be seen from this example, in the present embodiment, it can be seen that the above-described electronic device 140 can be operated through a combination of at least one line of sight direction, or a function of moving, selecting, and canceling an execution menu can be executed There will be.
For example, menu movement can be done through a combination of right and upward gaze, menu selection through right and down gaze combination, cancellation through left and down gaze combination, Eye direction, and the gaze combination for movement, selection, cancellation, and execution described above is not limited to this, but can be set differently according to the convenience of the user.
In addition, a shortcut function or the like can be set through the above-described line-up from the upward direction and from the upward direction to the downward diagonal line.

제2 실시예Second Embodiment

도 7은 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)을 예시적으로 나타낸 순서도이다.FIG. 7 is a flowchart illustrating a smart glasses interface method (S100) according to a second embodiment of the present invention.

도 7에 도시된 바와 같이, 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)은 게이즈 제스처(gaze gesture)를 이용한 인터페이스 방법으로서, 이를 위하여 S110 단계 내지 S140 단계를 포함하여 이루어진다. 본 실시예에서 적용되는 각 구성은 예로서 설명한 도 1 내지 도 6을 통해 가능하게 되면 이 설명은 앞서 설명되었기 때문에 생략하기로 한다.As shown in FIG. 7, the smart glasses interface method S100 according to the second embodiment of the present invention is an interface method using a gaze gesture, and includes steps S110 to S140. 1 to 6 described in the above-described embodiments, the description will be omitted because it has been described above.

먼저, 본 발명에 따른 S110 단계에서는 다수의 프로그램화된 실행 메뉴(122)를 안경 화면(121)에 표시한다. First, in step S110 according to the present invention, a plurality of programmed execution menus 122 are displayed on the glasses screen 121. [

이후, 본 발명에 따른 S120 단계에서는 눈의 방향과 눈의 깜박임 정도를 시선 감지 센서부(110)에서 감지한다. Thereafter, in step S120 according to the present invention, the direction of the eyes and the degree of flickering of the eyes are sensed by the sight line sensor unit 110. [

이후, 본 발명에 따른 S130 단계에서는 S120 단계의 감지를 통해 시선 조합 정보와 눈 깜박임 정보를 시선 감지 센서부(110)에서 생성한다. 상기 시선 조합 정보는 상/하/좌/우 방향과 상/하/좌/우/ 방향 사이에 존재하는 4개의 대각선 방향성을 포함한 정보를 의미하고, 눈 깜박임 정보는 눈을 제한된 시간안에 계속하여 뜨고 있는 상태, 감고 있는 상태 및 둘을 소정의 횟수만큼 반복하는 상태 등을 의미한다. Thereafter, in step S130 according to the present invention, eye gaze sensor 110 generates gaze combination information and eye flicker information through sensing in step S120. The eye combination information means information including four diagonal directions existing between the up / down / left / right direction and the up / down / left / right / direction, and the eye blinking information continuously keeps the eye in a limited time A state of winding, a state of repeating the two by a predetermined number of times, and the like.

마지막으로, 본 발명에 따른 S140 단계에서는 S130 단계에 의해 생성된 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기(140)를 동작시키거나 안경 화면(121)에 표시된 실행 메뉴(122)의 이동, 선택과 취소를 실행시킬 수 있다. Finally, in step S140 according to the present invention, a predetermined command signal is generated through the eye combination information and the eye flicker information generated in step S130 to operate an arbitrary electronic device 140, The execution menu 122 can be moved, selected and canceled.

상기 실행 메뉴(122)의 이동, 선택 및 취소 기능에 대한 예는 앞서 도 2 내지 5에서 충분히 설명되었기 때문에 그 설명은 생략하기로 한다. 여기서, 임의의 명령 신호에 따라 실행메뉴(122)의 이동, 선택 및 취소 기능은 통상적으로 널리 알려진 스마트폰에서 사람의 손에 의한 터치에 의해 메뉴의 이동 선택 및 취소와 같은 원리가 적용될 수 있다.The examples of the move, select and cancel functions of the execution menu 122 have been fully described in FIGS. 2 to 5, and a description thereof will be omitted. Here, the movement, selection and cancellation functions of the execution menu 122 according to an arbitrary command signal can be applied to a principle such as movement selection and cancellation of a menu by a touch by a human hand in a commonly known smart phone.

예를 들면, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동 기능에 활용(연동될)될 경우에 눈 깜박임 정보를 이동된 실행 메뉴(122)의 선택과 취소 기능에 활용(연동될) 수 있다.For example, when the command signal is used (interlocked) with the movement function between the execution menus 122, the eye blinking information is utilized for the selection and cancel function of the moved execution menu 122 ).

또한, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동, 선택 및 취소 기능에 활용(연동될) 경우에 눈 깜박임 정보를 실행 메뉴(122)에 포함된 서브 실행 메뉴(미도시)의 선택과 취소 기능에 활용(연동될)될 수도 있다.In addition, when the command signal is used (combined) in the move, select, and cancel functions between the execution menus 122, the blinking information is displayed in the submenu of the submenu (not shown) included in the execution menu 122 And may be utilized (linked) to the selection and cancellation functions.

이로써, 본 발명에 따른 S140 단계에서는 실행 메뉴(122) 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상 및 데이터를 안경 화면(121)과 유무선 통신 인터페이스(150)로 연결된 전자기기(140)의 표시 화면에 표시할 수 있게 된다.  In step S140 according to the present invention, the execution of the execution menu 122 and the execution of the sub-execution menu allows the corresponding image and data to be transmitted to the electronic device 140 connected to the eyeglass screen 121 via the wired / wireless communication interface 150 So that it can be displayed on the display screen.

이상에서와 같이, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the exemplary embodiments or constructions. You can understand that you can do it. The embodiments described above are therefore to be considered in all respects as illustrative and not restrictive.

100 : 스마트 안경 인터페이스 시스템 110 : 시선 감지 센서부
120 : 안경 화면부 121 : 안경 화면
122 : 실행 메뉴 130 : 프로세서부
140 : 전자기기 150 : 유무선 인터페이스
100: smart glasses interface system 110: visual line sensor unit
120: Glasses screen part 121: Glasses screen
122: Execution menu 130:
140: Electronic device 150: wired / wireless interface

Claims (8)

게이즈 제스처(gaze gesture) 및 눈 깜박임 정보를 통해 명령신호를 생성하여 전자기기 및 장치를 동작시키기 위한 스마트 안경 인터페이스 시스템으로서,
다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부;
다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및
상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 유무선 통신 인터페이스로 연결된 전자기기 및 장치를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부;를 포함하되,
상기 프로세서부는 시선조합을 통해 바로가기 기능을 설정할 수 있는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.
A smart glasses interface system for generating a command signal through a gaze gesture and eye flicker information to operate an electronic device and a device,
A line of sight detection unit for generating line-of-sight information by sensing at least two combined line-of-sight directions among a plurality of line-of-sight directions, generating eye blinking information by sensing a blinking degree of eyes;
A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And
And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate an electronic device and a device connected through a wired / wireless communication interface, or to execute movement, selection and cancellation of the execution menu,
Wherein the processor unit is configured to set a shortcut function through a line combination.
제1항에 있어서,
상기 프로세서부는,
상기 시선조합 정보를 상기 실행 메뉴간 이동 기능에 활용할 경우, 상기 눈 깜박임 정보를 이동된 실행 메뉴의 선택과 취소 기능에 활용하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.
The method according to claim 1,
The processor unit,
Wherein the eye blinking information is utilized for selecting and canceling the moved execution menu when the gaze combination information is utilized for the movement function between the execution menus.
제1항에 있어서,
상기 프로세서부는,
상기 시선조합 정보를 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용할 경우 상기 눈 깜박임 정보를 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.
The method according to claim 1,
The processor unit,
Wherein the eye blinking information is utilized for selecting and canceling a sub-execution menu included in the execution menu when the gaze combination information is utilized for the movement, selection, and cancellation of the execution menu.
제3항에 있어서,
상기 프로세서부는,
상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 유무선 통신 인터페이스로 연결된 상기 전자기기 및 장치의 표시 화면에 표시하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.
The method of claim 3,
The processor unit,
And displays the corresponding image on the display screen of the electronic apparatus and the apparatus connected to the eyeglass screen via a wired / wireless communication interface by execution according to the selection of the execution menu and the sub execution menu.
게이즈 제스처(gaze gesture) 및 눈 깜박임 정보를 통해 명령신호를 생성하여 전자기기 및 장치를 동작시키기 위한 스마트 안경 인터페이스 방법으로서,
(a) 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 단계;
(b) 눈의 방향과 깜박임 정도를 시선 감지 센서부에서 감지하는 단계;
(c) 상기 감지를 통한 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보을 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 시선 감지 센서부에서 생성하는 단계; 및
(d) 생성된 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 유무선 통신 인터페이스로 연결된 전자기기 및 장치를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 프로세서부에서 실행시키는 단계;를 포함하되, 상기 프로세서부는 시선조합을 통해 바로가기 기능을 설정할 수 있는 것을 특징으로 하는 스마트 안경 인터페이스 방법.
1. A smart glasses interface method for operating an electronic device and a device by generating a command signal through a gaze gesture and eye flicker information,
(a) displaying a plurality of programmed execution menus on a glasses screen;
(b) detecting the direction of the eye and the degree of flicker in the visual line sensor;
(c) generating gaze combination information by sensing at least two combined gaze directions among a plurality of gaze directions through the sensing, generating eye blinking information by sensing the degree of flickering of the eyes; And
(d) generating a predetermined command signal through the generated gaze combination information and eye blinking information to operate an electronic device and a device connected through a wired / wireless communication interface, or executing, selecting, and canceling the execution menu by the processor unit Wherein the processor unit is capable of setting a shortcut function through a line of sight combination.
제5항에 있어서,
상기 (d) 단계는,
상기 시선조합 정보가 상기 실행 메뉴간 이동 기능에 활용될 경우, 상기 눈 깜박임 정보는 이동된 실행 메뉴의 선택과 취소 기능에 활용되는 것을 특징으로 하는 스마트 안경 인터페이스 방법.
6. The method of claim 5,
The step (d)
Wherein the eye blinking information is used for selecting and canceling the moved execution menu when the eye-sight combination information is utilized for the menu-to-menu movement function.
제5항에 있어서,
상기 (d) 단계는,
상기 시선조합 정보가 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용될 경우 상기 눈 깜박임 정보는 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용되는 것을 특징으로 하는 스마트 안경 인터페이스 방법.
6. The method of claim 5,
The step (d)
Wherein the blinking information is used for selecting and canceling a sub-execution menu included in the execution menu when the gaze combination information is utilized for the movement, selection, and cancellation of the execution menu.
제7항에 있어서,
상기 (d) 단계는,
상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 전자기기 및 장치의 표시 화면에 표시하는 것을 특징으로 하는 스마트 안경 인터페이스 방법.
8. The method of claim 7,
The step (d)
And displaying the corresponding image on the spectacle screen and the display screen of the electronic apparatus and the apparatus by execution according to the selection of the execution menu and the sub-execution menu.
KR1020130118894A 2013-10-07 2013-10-07 Smart glass interface system and method using gaze gesture KR101685430B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130118894A KR101685430B1 (en) 2013-10-07 2013-10-07 Smart glass interface system and method using gaze gesture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130118894A KR101685430B1 (en) 2013-10-07 2013-10-07 Smart glass interface system and method using gaze gesture

Publications (2)

Publication Number Publication Date
KR20150041233A KR20150041233A (en) 2015-04-16
KR101685430B1 true KR101685430B1 (en) 2016-12-14

Family

ID=53034768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130118894A KR101685430B1 (en) 2013-10-07 2013-10-07 Smart glass interface system and method using gaze gesture

Country Status (1)

Country Link
KR (1) KR101685430B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080157946A1 (en) 2001-01-30 2008-07-03 David Parker Dickerson Interactive data view and command system
US20130118894A1 (en) 2003-11-14 2013-05-16 Micron Technology, Inc. Silver selenide sputtered films and method and apparatus for controlling defect formation in silver selenide sputtered films

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110101374A (en) 2010-03-08 2011-09-16 이강수 Ubiquitous remote controller using eye-tracking glasses

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080157946A1 (en) 2001-01-30 2008-07-03 David Parker Dickerson Interactive data view and command system
US20130118894A1 (en) 2003-11-14 2013-05-16 Micron Technology, Inc. Silver selenide sputtered films and method and apparatus for controlling defect formation in silver selenide sputtered films

Also Published As

Publication number Publication date
KR20150041233A (en) 2015-04-16

Similar Documents

Publication Publication Date Title
US10345959B2 (en) Watch terminal and method of controlling the same
US11160688B2 (en) Visual aid display device and method of operating the same
US10291833B2 (en) Mobile terminal for image capturing and method for controlling the same
EP3155725B1 (en) Mobile terminal and method of controlling the same
US9602954B2 (en) Mobile terminal and method for controlling the same
EP3297264B1 (en) Mobile terminal and control method therefor
US9886086B2 (en) Gesture-based reorientation and navigation of a virtual reality (VR) interface
EP2999128B1 (en) Mobile terminal and control method therefor
EP2899954B1 (en) Mobile terminal
US10567567B2 (en) Electronic device and method for controlling of the same
EP2899622B1 (en) Mobile terminal and control method for the same
JP6398987B2 (en) Information processing apparatus, information processing method, and program
EP2987244B1 (en) Mobile terminal and control method for the mobile terminal
US20170013179A1 (en) Mobile terminal and method for controlling the same
US20160286118A1 (en) Mobile terminal and method for controlling the same
EP2947538B1 (en) Mobile terminal and method of controlling the same
US9939642B2 (en) Glass type terminal and control method thereof
US20190020823A1 (en) Mobile terminal
KR20160026323A (en) method and apparatus for controlling the notification information based on movement
US20180253717A1 (en) Terminal apparatus and control method for terminal apparatus
US9294605B1 (en) Mobile terminal and method for controlling the same
US11430414B2 (en) Eye gaze control of magnification user interface
EP3173848B1 (en) Head mounted display and control method thereof
KR101685430B1 (en) Smart glass interface system and method using gaze gesture
KR101695695B1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20191203

Year of fee payment: 4