KR20140051771A - 단말, 그리고 단말에서의 터치 동작 제어 방법 - Google Patents

단말, 그리고 단말에서의 터치 동작 제어 방법 Download PDF

Info

Publication number
KR20140051771A
KR20140051771A KR1020130113443A KR20130113443A KR20140051771A KR 20140051771 A KR20140051771 A KR 20140051771A KR 1020130113443 A KR1020130113443 A KR 1020130113443A KR 20130113443 A KR20130113443 A KR 20130113443A KR 20140051771 A KR20140051771 A KR 20140051771A
Authority
KR
South Korea
Prior art keywords
touch
terminal
user
information
eyeball
Prior art date
Application number
KR1020130113443A
Other languages
English (en)
Inventor
박주영
김도영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to CN201310502988.7A priority Critical patent/CN103777861A/zh
Priority to US14/061,691 priority patent/US20140111452A1/en
Publication of KR20140051771A publication Critical patent/KR20140051771A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 실시예에 따르면, 단말이 제공된다. 상기 단말은, 사용자의 시선을 추적해 시선 정보를 생성하는 시선 추적부; 사용자의 터치를 감지해 터치 정보를 생성하는 터치 감지부; 및 상기 시선 정보 및 상기 터치 정보에 기초해 터치 동작을 수행하는 제어부를 포함한다.

Description

단말, 그리고 단말에서의 터치 동작 제어 방법{TERMINAL AND METHOD FOR CONTROLLING TOUCH OPERATION IN THE TERMINAL}
본 발명은 단말, 그리고 단말에서의 터치 동작을 제어하는 방법에 관한 것이다. 구체적으로, 본 발명은 시선을 이용한 단말 UI(User Interface, 사용자 인터페이스), 그리고 그 조작 방법에 관한 것이다.
최근, 멀티 터치를 이용한 스마트 단말 사용법에 대한 특허가 많아지고 있다. 예를 들어, 애플의 아이폰의 경우에, 다수 손가락을 이용한 멀티 터치 특허를 보유하고 있고, 안드로이드 폰의 경우도 다수 손가락을 이용한 멀티 터치 방식의 화면 조작 기술을 보유하고 있다. 미래 지향적인 스마트 단말 UI 및 그 사용법에 대한 요구가 증가하고 있다.
시선 추적을 통한 ICT(Information and Communication Technology) 기기 이용방법은, 전적으로 시선, 눈 깜박임 등과 같은 눈 동작에 집중하고 있다. 하지만, 눈 동작만을 이용하는 기술은 멀티 터치와 같은 다양한 제스처(gesture)를 구현하지는 못한다. 한편, 스마트 단말(예, 스마트폰, 스마트패드, 전자책 등)의 경우에 사용자는 대부분 단말을 손으로 들고 있기 때문에, 단말 제어를 굳이 시선에만 국한시킬 필요는 없다.
시선 추적 기술(Eye-tracking technology)은 이미 오래 전부터 연구되어 왔다. 최근 시선 추적 기술을 스마트 TV에 적용하여, 스마트 TV를 시선으로 조작할 수 있는 기술이 개발되기도 하였다.
한편, 시선 추적만을 이용한 UI의 경우에 눈 동작의 시리얼 화(일련의 눈 동작이 요구됨)로 인하여, 오랜 응답 시간이 요구된다. 따라서, 시선 추적만을 이용한 UI는, TV와는 달리 빠른 응답 속도를 요구하는 스마트 단말에는 적합하지 않다. 또한, 최근 스마트 단말 앱(Application)은 멀티 터치 UI를 요하고 있다.
본 발명이 해결하고자 하는 과제는, 스마트 단말을 사용하는 사용자의 행동 패턴을 기초로 한 미래지향적 스마트 단말 UI를 제공하는 것이다. 구체적으로 본 발명이 해결하고자 하는 과제는, 시선 추적 기술을 적용한 스마트 단말 UI로써 멀티 터치 방식을 제공할 수 있는 스마트 단말 UI 및 그 조작 방법을 제공하는 것이다.
본 발명의 실시예에 따르면, 단말이 제공된다. 상기 단말은, 사용자의 시선을 추적해 시선 정보를 생성하는 시선 추적부; 사용자의 터치를 감지해 터치 정보를 생성하는 터치 감지부; 및 상기 시선 정보 및 상기 터치 정보에 기초해 터치 동작을 수행하는 제어부를 포함한다.
상기 터치 감지부는 상기 사용자의 터치를 감지하는 센서를 포함한다. 여기서, 상기 센서는 스크린 이외의 영역에 위치한다.
상기 스크린 이외의 영역은 상기 단말의 후면부 영역, 상기 단말의 측면부 영역, 또는 상기 단말의 전면부 영역에서 스크린 영역을 제외한 테두리 영역일 수 있다.
상기 시선 정보는 스크린 영역에서 사용자가 응시하고 있는 지점을 나타낼 수 있다.
상기 시선 정보는 스크린 영역에서 사용자의 시선 이동을 나타낼 수 있다.
상기 터치 감지부는, 상기 사용자의 터치 개수 및 사용자의 터치 지속 시간에 기초해 상기 터치 정보를 생성한다.
상기 제어부는, 상기 터치 정보가 두개의 터치를 나타내고 상기 시선 정보가 사용자의 시선 이동을 나타내는 경우에, 화면 줌(zoom) 동작을 수행한다.
상기 시선 추적부는, 상기 단말과 사용자의 안구 간의 거리인 안구 거리와, 사용자의 안구 위치를 측정하는 안구 측정부; 및 상기 안구 거리와 상기 안구 위치를 이용해 상기 사용자의 시선을 추적하고, 상기 추적 결과에 대응하는 상기 시선 정보를 생성하는 시선 정보 생성부를 포함한다.
상기 안구 측정부는, 상기 안구 거리가 제1 기준범위를 벗어나거나 상기 안구 위치가 제2 기준 범위를 벗어난 경우에 오류 메시지를 출력할 수 있다.
상기 안구 측정부는, 상기 안구 거리가 제1 기준범위를 벗어난 경우에 상기 제1 기준범위를 재설정할 수 있다.
또한, 본 발명의 다른 실시예에 따르면, 단말에서의 터치 동작을 제어하는 방법이 제공된다. 상기 터치 동작 제어 방법은, 사용자의 터치를 감지하여 터치 정보를 생성하는 단계; 사용자의 시선을 추적하여 시선 정보를 생성하는 단계; 및 상기 터치 정보 및 상기 시선 정보에 기초해 터치 동작을 수행하는 단계를 포함한다.
본 발명의 실시예에 따르면, 사용자의 시선과 스마트 단말을 들고 있는 사용자의 손에 의한 터치를 조합하여, 스마트 단말을 제어할 수 있다. 따라서, 본 발명의 실시예에 따르면, 다양한 입력 제스처를 구현할 수 있으므로, 시선만으로 기기를 제어하는 경우에 발생하는 스마트 단말 조작의 한계점을 극복할 수 있다.
또한, 본 발명의 실시예에 따르면, 음성을 이용하는 입력 UI와는 달리, 주변 사람들에게 소음 피해를 주지 않기 때문에, 공공장소에서 편안하게 사용할 수 있다.
또한, 본 발명의 실시예에 따르면, 미래 지향적 스마트 단말 UI 및 그 조작방법을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 입력 UI 개념을 나타낸 도면.
도 2는 본 발명의 실시예에 따른 단말의 구조를 나타낸 도면.
도 3은 본 발명의 실시예에 따른 단말의 기능적 구성을 나타낸 도면.
도 4는 도 3의 시선 추적부의 구성을 나타낸 도면.
도 5는 본 발명의 실시예에 따른 터치 동작 제어 과정을 나타낸 순서도.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
도 1은 본 발명의 실시예에 따른 입력 UI 개념을 나타낸 도면이다.
본 발명은 사용자의 시선 및 터치의 조합을 통하여 스마트 단말(이하 '단말')을 제어하는 입력 UI로써, 싱글 터치뿐만 아니라 멀티 터치가 가능하다. 음성으로 단말을 제어하는 기술은, 주변 소음으로부터 방해를 받거나 주변 사람에게 소음 피해를 줄 수 있다. 따라서, 공공장소나 길을 걷을 때 타인에게 방해를 주지 않으면서 단말을 조작하기 위해서, 본 발명은 사용자의 시선과 손 동작을 사용한다.
단말(100)은 사용자의 시선(10)과 사용자의 손 동작(20)으로부터 사용자의 입력 의도를 판단할 수 있다.
도 2는 본 발명의 실시예에 따른 단말(100)의 구조를 나타낸 도면이다.
단말(100)의 전면부(40)는 스크린 영역(41), 전방 카메라(42), 및 베젤 영역(43)을 포함한다. 여기서 베젤 영역(43)은 단말(100)의 전면부(40)에서 스크린 영역(41)을 제외한 테두리 영역을 의미한다.
단말(100)은 내부 기판(50)을 포함한다.
단말(100)의 후면부(60)는 후방 카메라(61), 및 후면부 영역(62)을 포함한다. 후면부 영역(62)은 사용자의 터치를 감지할 수 있는 센서를 포함한다.
도 3은 본 발명의 실시예에 따른 단말(100)의 기능적 구성을 나타낸 도면이다.
단말(100)은 시선 추적부(110), 터치 감지부(120), 및 제어부(130)를 포함한다.
시선 추적부(110)는 사용자의 시선을 추적해 시선 정보를 생성한다. 여기서, 시선 정보는 스크린 영역(41) 상에서 사용자가 응시하고 있는 지점을 나타낼 수 있다. 또한 시선 정보는 스크린 영역(41) 상에서 사용자의 시선 이동(예, 제1 지점에서 제2 지점으로의 시선 이동)을 나타낼 수 있다. 한편, 시선 추적부(110)에서 사용하는 시선 추적 알고리즘은 당업자에게 이미 잘 알려진 기술이므로, 이에 대한 자세한 설명은 생략한다.
터치 감지부(120)는 사용자의 터치를 감지해 터치 정보를 생성한다. 터치 감지부(120)는 사용자의 터치를 감지하는 센서를 포함하는데, 상기 센서는 스크린 영역(41) 이외의 영역에 위치한다. 여기서 스크린 영역(41) 이외의 영역은 베젤 영역(43), 후면부 영역(62) 및 단말(100)의 측면부 영역(미도시) 중 적어도 어느 하나일 수 있다. 여기서, 터치 정보는 사용자의 터치 개수(즉, 센서에 접촉된 손가락 개수), 터치 지속 시간(즉, 손가락이 센서에 접촉하는 시간) 등을 나타낼 수 있다. 예를 들어, 터치 지속 시간은 사용자가 터치를 짧게 하였다는 정보, 사용자가 터치를 길게 하였다는 정보 등을 나타낼 수 있다.
제어부(130)는 시선 정보 및 터치 정보에 기초해 터치 동작을 수행한다. 여기서, 터치 동작은 사용자의 입력에 따라 수행되는 단말(100)의 동작을 의미한다. 예를 들어, 터치 동작은 화면 줌 인/아웃(zoom in/out), 클릭, 드래그, 화면 전환, 오픈(open) 등 일 수 있다.
도 4는 도 3의 시선 추적부(110)의 구성을 나타낸 도면이다.
시선 추적부(110)는 안구 측정부(111) 및 시선 정보 생성부(112)를 포함한다.
안구 측정부(111)는 단말(100)과 사용자의 안구 간의 거리(이하 '안구 거리'), 그리고 사용자의 안구 위치를 측정한다. 한편, 걸으면서 단말(100)을 사용하거나 흔들리는 공간에서 단말(100)을 사용하거나 엎드려서 단말(100)을 사용하는 경우에, 사용자의 안구 위치에 따라 시선 추적이 이루어져야 한다. 따라서, 안구 측정부(111)는 현재의 안구 거리가 제1 기준 범위를 벗어나거나 현재의 안구 위치가 제2 기준 범위를 벗어난 경우에 오류 메시지를 출력할 수 있다. 여기서 제1 기준 범위는 시선 추적부(110)의 시선 추적 알고리즘에 사용되는 안구 거리 값으로써, 단말(100) 사용 시 사용자에 의해 설정된다. 예를 들어, 사용자는 단말(100)의 잠금 해제 시 또는 앱 실행 시에 단말(100) 또는 앱이 제시하는 적어도 하나의 포인트를 응시함으로써, 제1 기준 범위를 설정할 수 있다. 마찬가지로, 제2 기준 범위는 시선 추적부(110)의 시선 추적 알고리즘에 사용되는 안구 위치 값으로써, 단말(100) 사용 시 사용자에 의해 설정된다. 안구 측정부(111)는 현재 측정된 안구 거리 또는 안구 위치가 제1 기준 범위 또는 제2 기준 범위를 벗어난 경우에, 사용자의 안구가 적절한 안구 거리(즉, 제1 기준 범위 내)를 가지거나 적절한 안구 위치(즉, 제2 기준 범위 내)에 있을 수 있도록 사용자의 이동을 유도하는 오류 메시지를 출력할 수 있다. 한편, 안구 측정부(111)는 오류 메시지를 출력하는 대신에, 제1 기준 범위 또는 제2 기준 범위를 재설정할 수 있다. 구체적으로, 안구 측정부(111)는 현재 측정된 안구 거리 또는 안구 위치가 제1 기준 범위 또는 제2 기준 범위를 벗어난 경우에, 제1 기준 범위 또는 제2 기준 범위를 재설정할 수 있다. 예를 들어, 제1 기준 범위가 30cm이고 현재 측정된 안구 거리가 20cm인 경우에, 안구 측정부(111)는 사용자로 하여금 제1 기준 범위를 20cm로 재설정하도록 유도할 수 있다.
시선 정보 생성부(112)는 안구 측정부(111)에 의해 측정된 안구 거리와 안구 위치를 이용해 사용자의 시선을 추적하고, 그 추적 결과에 대응하는 시선 정보를 생성한다. 구체적으로, 시선 정보 생성부(112)는 현재 측정된 안구 거리와 안구 위치 각각이 제1 및 제2 기준 범위 각각을 만족하는 경우에, 현재 측정된 안구 거리와 안구 위치를 이용해 사용자의 시선을 추적할 수 있다.
도 5는 본 발명의 실시예에 따른 단말(100)에서의 터치 동작 제어 과정을 나타낸 순서도이다.
제1 기준 범위와 제2 기준 범위를 설정한다(S110). 예를 들어, 사용자가 단말(100)의 잠김 상태를 해제하는 경우에, 단말(100)이 제시하는 적어도 하나의 포인트를 응시함으로써 안구 거리와 안구 위치 각각에 대한 제1 기준 범위와 제2 기준 범위를 설정한다.
단말(100)을 사용하는 사용자의 현재 안구 거리와 안구 위치를 측정한다(S120).
측정된 안구 거리 또는 측정된 안구 위치가 제1 기준 범위 또는 제2 기준 범위를 벗어났는지를 판단한다(S130). 만약, 측정된 안구 거리가 제1 기준 범위를 벗어난 경우에 제1 기준 범위를 재설정하고, 측정된 안구 위치가 제2 기준 범위를 벗어난 경우에 제2 기준 범위를 재설정한다(S140). 그리고 현재의 안구 거리 및 안구 위치를 측정하는 과정(S120)이 다시 수행된다.
만약, 측정된 안구 거리가 제1 기준 범위 내에 있고, 측정된 안구 위치가 제2 기준 범위 내에 있다면, 시선 추적 알고리즘을 통해 사용자의 시선을 추적한다(S150). 단말(100)은 시선 추적을 통해 시선 정보를 생성한다.
한편, 스크린 영역(41) 이외의 영역(예, 후면부 영역(62))에 위치하는 센서를 통해 사용자의 터치를 감지한다(S160). 사용자가 단말(100)의 스크린 영역(41)을 계속 주시하는 경우가 아닌 경우(사용자가 길을 걷고 있는 경우)도 있을 수 있다. 따라서, 사용자의 시선은 사용자의 동작 의도와 결합되어야 그 의미가 있다. 단말(100)에서 영화, 게임, 인터넷 등의 사용을 위한 다양한 입력 동작 패턴들이 존재하는데, 단말(100)은 이러한 다양한 입력 동작 패턴들을 사용함에 따른 사용자의 동작 의도를 파악할 수 있어야 한다. 여기서, 사용자의 동작 의도는 사용자의 손 동작을 감지하는 단말(100)의 센서를 통해 파악될 수 있다. 단말(100)은 센서에 접촉한 동시 접촉 손가락의 개수, 손가락의 접촉 시간 등을 통해서 사용자의 동작 의도가 한 손가락, 두 손가락, 세 손가락, 클릭, 드래그 등 인지를 판단한다. 한편, 단말(100)은 사용자의 터치를 감지하여 터치 정보를 생성한다.
시선 정보와 터치 정보에 기초해 터치 동작을 수행한다(S170). 예를 들어, 터치 정보가 한 손가락을 이용한 짧은 시간의 터치임을 나타내고, 시선 정보가 스크린 영역(41) 상의 제1 지점에 대한 응시를 나타내는 경우에, 단말(100)은 제1 지점이 직접 터치된 경우에 수행하는 동작(예, 앱 실행)과 동일한 동작을 수행한다. 다른 예로써, 터치 정보가 한 손가락을 이용한 터치 상태 유지임을 나타내고, 시선 정보가 스크린 영역(41) 상의 어느 한 지점에서 다른 한 지점으로의 시선 이동을 나타내는 경우에, 단말(100)은 스크린 영역(41) 상에서 어느 한 지점을 터치한 손가락이 다른 한 지점으로 끌면서 이동한 경우에 수행하는 동작(예, 스크롤)과 동일한 동작을 수행한다. 또 다른 예로써, 터치 정보가 두 손가락을 이용한 터치임을 나타내고, 시선 정보가 스크린 영역(41) 상의 어느 한 지점에서 다른 한 지점으로의 시선 이동을 나타내는 경우에, 단말(100)은 스크린 영역(41) 상에서 어느 두 지점을 터치한 두 손가락 간의 간격이 줄어들거나 늘어난 경우에 수행하는 동작(예, 화면 줌 인/아웃)과 동일한 동작을 수행한다. 또 다른 예로써, 터치 정보가 세 손가락을 이용한 터치임을 나타내고, 시선 정보가 스크린 영역(41) 상의 어느 한 지점에서 다른 한 지점으로의 시선 이동을 나타내는 경우에, 단말(100)은 현재의 화면(예, 배경 화면)을 다른 화면으로 전환하는 화면 전환 동작을 수행한다.
한편, 도 5에서는 측정된 현재의 안구 거리 또는 안구 위치가 제1 기준 범위 또는 제2 기준 범위를 벗어난 경우에 제1 기준 범위 또는 제2 기준 범위를 재설정하는 경우에 대해서 예시하였으나, 재설정 과정(S140) 대신에 오류 메시지를 출력하는 과정이 수행될 수도 있다. 여기서 오류 메시지는 사용자의 안구가 적절한 안구 거리(즉, 제1 기준 범위 내)를 가지거나 적절한 안구 위치(즉, 제2 기준 범위 내)에 있을 수 있도록 사용자의 이동을 유도하는 메시지이다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.

Claims (20)

  1. 사용자의 시선을 추적해 시선 정보를 생성하는 시선 추적부;
    사용자의 터치를 감지해 터치 정보를 생성하는 터치 감지부; 및
    상기 시선 정보 및 상기 터치 정보에 기초해 터치 동작을 수행하는 제어부
    를 포함하는 단말.
  2. 제1항에 있어서,
    상기 터치 감지부는 상기 사용자의 터치를 감지하는 센서를 포함하고,
    상기 센서는 스크린 이외의 영역에 위치하는
    단말.
  3. 제2항에 있어서,
    상기 스크린 이외의 영역은 상기 단말의 후면부 영역인
    단말.
  4. 제2항에 있어서,
    상기 스크린 이외의 영역은 상기 단말의 측면부 영역인
    단말.
  5. 제2항에 있어서,
    상기 스크린 이외의 영역은 상기 단말의 전면부 영역에서 스크린 영역을 제외한 테두리 영역인
    단말.
  6. 제2항에 있어서,
    상기 시선 정보는 스크린 영역에서 사용자가 응시하고 있는 지점을 나타내는
    단말.
  7. 제2항에 있어서,
    상기 시선 정보는 스크린 영역에서 사용자의 시선 이동을 나타내는
    단말.
  8. 제2항에 있어서,
    상기 터치 감지부는,
    사용자의 터치 개수에 기초해 상기 터치 정보를 생성하는
    단말.
  9. 제8항에 있어서,
    상기 터치 감지부는,
    상기 사용자의 터치 개수 및 사용자의 터치 지속 시간에 기초해 상기 터치 정보를 생성하는
    단말.
  10. 제1항에 있어서,
    상기 제어부는,
    상기 터치 정보가 두개의 터치를 나타내고 상기 시선 정보가 사용자의 시선 이동을 나타내는 경우에, 화면 줌(zoom) 동작을 수행하는
    단말.
  11. 제1항에 있어서,
    상기 시선 추적부는,
    상기 단말과 사용자의 안구 간의 거리인 안구 거리와, 사용자의 안구 위치를 측정하는 안구 측정부; 및
    상기 안구 거리와 상기 안구 위치를 이용해 상기 사용자의 시선을 추적하고, 상기 추적 결과에 대응하는 상기 시선 정보를 생성하는 시선 정보 생성부를 포함하는
    단말.
  12. 제11항에 있어서,
    상기 안구 측정부는,
    상기 안구 거리가 제1 기준범위를 벗어나거나 상기 안구 위치가 제2 기준 범위를 벗어난 경우에 오류 메시지를 출력하는
    단말.
  13. 제11항에 있어서,
    상기 안구 측정부는,
    상기 안구 거리가 제1 기준범위를 벗어난 경우에 상기 제1 기준범위를 재설정하는
    단말.
  14. 단말에서의 터치 동작을 제어하는 방법에 있어서,
    사용자의 터치를 감지하여 터치 정보를 생성하는 단계;
    사용자의 시선을 추적하여 시선 정보를 생성하는 단계; 및
    상기 터치 정보 및 상기 시선 정보에 기초해 터치 동작을 수행하는 단계
    를 포함하는 터치 동작 제어 방법.
  15. 제14항에 있어서,
    상기 시선 정보를 생성하는 단계는,
    상기 단말과 사용자의 안구 간의 거리인 안구 거리와, 사용자의 안구 위치를 측정하는 단계;
    상기 안구 거리와 상기 안구 위치를 이용해 사용자의 시선을 추적하는 단계; 및
    상기 추적 결과에 대응하는 상기 시선 정보를 생성하는 단계를 포함하는
    터치 동작 제어 방법.
  16. 제15항에 있어서,
    상기 안구 거리가 기준 범위를 벗어난 경우에 상기 기준 범위를 재설정하는 단계를 더 포함하는
    터치 동작 제어 방법.
  17. 제14항에 있어서,
    상기 터치 정보를 생성하는 단계는,
    상기 단말의 스크린 영역 이외의 영역에 위치하는 센서를 통해 상기 사용자의 터치를 감지하는 단계를 포함하는
    터치 동작 제어 방법.
  18. 제17항에 있어서,
    상기 스크린 영역 이외의 영역은 상기 단말의 후면부 영역인
    터치 동작 제어 방법.
  19. 제17항에 있어서,
    상기 터치 정보를 생성하는 단계는,
    상기 사용자의 터치 개수 및 사용자의 터치 지속 시간에 기초해 상기 터치 정보를 생성하는 단계를 더 포함하는
    터치 동작 제어 방법.
  20. 제17항에 있어서,
    상기 터치 동작을 수행하는 단계는,
    상기 터치 정보가 한 개의 터치를 나타내고 상기 시선 정보가 스크린 영역의 제1 지점을 나타내는 경우에, 상기 제1 지점이 터치된 경우에 수행하는 동작과 동일한 동작을 수행하는 단계를 포함하는
    터치 동작 제어 방법.
KR1020130113443A 2012-10-23 2013-09-24 단말, 그리고 단말에서의 터치 동작 제어 방법 KR20140051771A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201310502988.7A CN103777861A (zh) 2012-10-23 2013-10-23 终端和用于在终端中控制触摸操作的方法
US14/061,691 US20140111452A1 (en) 2012-10-23 2013-10-23 Terminal and method of controlling touch operations in the terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20120118125 2012-10-23
KR1020120118125 2012-10-23

Publications (1)

Publication Number Publication Date
KR20140051771A true KR20140051771A (ko) 2014-05-02

Family

ID=50885355

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130113443A KR20140051771A (ko) 2012-10-23 2013-09-24 단말, 그리고 단말에서의 터치 동작 제어 방법

Country Status (1)

Country Link
KR (1) KR20140051771A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10423225B2 (en) 2016-04-21 2019-09-24 Visualcamp Co., Ltd. Display apparatus, and input processing method and system using same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10423225B2 (en) 2016-04-21 2019-09-24 Visualcamp Co., Ltd. Display apparatus, and input processing method and system using same

Similar Documents

Publication Publication Date Title
Esteves et al. Orbits: Gaze interaction for smart watches using smooth pursuit eye movements
US10540008B2 (en) System for gaze interaction
JP5579780B2 (ja) 入力装置、入力支援方法及びプログラム
US20150002475A1 (en) Mobile device and method for controlling graphical user interface thereof
US10684675B2 (en) Method and apparatus using frictional sound
US10254844B2 (en) Systems, methods, apparatuses, computer readable medium for controlling electronic devices
US20170068416A1 (en) Systems And Methods for Gesture Input
US20220229524A1 (en) Methods for interacting with objects in an environment
US20140111452A1 (en) Terminal and method of controlling touch operations in the terminal
TWI658396B (zh) 介面控制方法和電子裝置
US10739927B2 (en) Operation detection method and apparatus, and mobile terminal
KR102297473B1 (ko) 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
WO2010127714A2 (en) Electronic apparatus including one or more coordinate input surfaces and method for controlling such an electronic apparatus
TWI659353B (zh) 電子設備以及電子設備的工作方法
JP2014229017A (ja) 電子機器、位置指定方法及びプログラム
US20240211044A1 (en) Object Engagement Based on Finger Manipulation Data and Untethered Inputs
US10558340B2 (en) Inadvertent dismissal prevention for graphical content
KR20140051771A (ko) 단말, 그리고 단말에서의 터치 동작 제어 방법
CN109885170A (zh) 截屏方法、穿戴式设备及计算机可读存储介质
Ikematsu et al. LightTouch: Passive Gadgets for Extending Interactions on Capacitive Touchscreens by Automating Touch Inputs
CN104461435A (zh) 一种显示设备
Pollock CountMarks: Multi-finger marking menus for mobile interaction with head-mounted displays
KR20150083553A (ko) 입력 처리 방법 및 장치
US11693491B1 (en) Tracking a paired peripheral input device based on a contact criterion
US20240256049A1 (en) Devices, methods, and graphical user interfaces for using a cursor to interact with three-dimensional environments

Legal Events

Date Code Title Description
A201 Request for examination