KR101477181B1 - 터치 입력 제어 방법 및 모듈 - Google Patents

터치 입력 제어 방법 및 모듈 Download PDF

Info

Publication number
KR101477181B1
KR101477181B1 KR1020130084122A KR20130084122A KR101477181B1 KR 101477181 B1 KR101477181 B1 KR 101477181B1 KR 1020130084122 A KR1020130084122 A KR 1020130084122A KR 20130084122 A KR20130084122 A KR 20130084122A KR 101477181 B1 KR101477181 B1 KR 101477181B1
Authority
KR
South Korea
Prior art keywords
touch input
point
input
touch
user
Prior art date
Application number
KR1020130084122A
Other languages
English (en)
Inventor
주다영
김수곤
오영훈
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020130084122A priority Critical patent/KR101477181B1/ko
Application granted granted Critical
Publication of KR101477181B1 publication Critical patent/KR101477181B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 시선을 이용하여, 사용자가 의도하지 않은 터치 입력을 무시하여 오 입력을 방지할 수 있는 터치 입력 제어 방법 및 모듈을 제공하는 것이다. 본 발명의 일 실시예에 따른 터치 입력 제어 방법은, 사용자에 의한 제1터치 입력을 감지하는 터치감지단계; 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치 입력이 감지되는 순간 휴대용 단말의 터치 스크린 상에서 상기 사용자가 응시하는 지점인 제1응시지점을 파악하는 시선파악단계; 상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우, 상기 감지된 제1터치 입력을 무시하는 입력제어단계를 포함할 수 있다.

Description

터치 입력 제어 방법 및 모듈{Touch Input Control Method and Apparatus}
본 발명은 터치 입력 제어 방법 및 모듈에 관한 발명이다. 보다 구체적으로 본 발명은, 오 입력된 터치 입력을 무시하는 터치 입력 제어 방법 및 모듈에 관한 발명이다.
최근 스마트 폰, 태블릿 PC 등 터치를 통하여 입력이 가능한 터치 스크린을 구비한 기기들이 많이 등장하고 있다.
터치 스크린의 종류에는 압력을 감지하여 입력 받는 감압식 터치 스크린, 정전용량 값의 변화를 감지하여 입력 받는 정전식 터치 스크린 등이 존재한다.
이러한 터치 스크린을 장착한 기기를 사용할 때, 사용자가 의도하지 않은 화면 상의 지점을 터치하는 문제가 발생할 수 있다.
구체적으로 도 1을 참조하여 설명한다.
도 1은 사용자의 의도에 부합하지 않은 터치 입력이 발생하는 일 예를 나타내는 도면이다.
도 1을 참조하면, 사용자가 태블릿 PC와 같은 휴대용 단말(10)을 파지하는 과정에서 엄지손가락으로 터치 스크린(12)의 터치(13)하여 오입력을 초래할 수 있는 것을 볼 수 있다.
즉, 사용자는 터치 스크린(12)을 구비한 휴대용 단말(10)을 사용하는 도중 단말기의 파지 형태의 변화나, 주머니나 가방에 휴대용 단말(10)을 넣었다가 빼는 등의 동작에서 의도하지 않은 터치를 통하여 오 입력을 초래할 수 있다.
따라서, 이러한 의도하지 않은 터치로 인한 오 입력을 방지하기 위한 기술이 필요하다.
본 발명이 해결하고자 하는 기술적 과제는, 사용자의 시선을 이용하여, 사용자가 의도하지 않은 터치 입력을 무시하여 오 입력을 방지할 수 있는 터치 입력 제어 방법 및 모듈을 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해 될 수 있을 것이다.
상기 기술적 과제를 달성하기 위한 본 발명의 제1실시예에 따른 터치 입력 제어 방법은, 사용자에 의한 제1터치 입력을 감지하는 터치감지단계; 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치 입력이 감지되는 순간 휴대용 단말의 터치 스크린 상에서 상기 사용자가 응시하는 지점인 제1응시지점을 파악하는 시선파악단계; 상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우, 상기 감지된 제1터치 입력을 무시하는 입력제어단계를 포함할 수 있다.
상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 시선파악단계는, 상기 제2터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점인 제2응시지점을 파악하고, 상기 입력제어단계는, 상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제2터치 입력이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시할 수 있다.
실시예에 따르면, 상기 시선파악단계는, 상기 제1터치 입력이 감지되는 순간과 상기 제2터치 입력이 감지되는 순간 사이에 상기 사용자가 응시하는 지점인 제3응시지점을 파악하고, 상기 입력제어단계는, 상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 제2터치 입력이 존재하지 않고, 상기 제1터치 입력이 감지된 지점과 상기 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제3응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시할 수 있다.
상기 터치감지단계는, 상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 제1터치 입력이 입력된 지점 및 상기 제2터치 입력이 입력된 지점과 다른 지점에 입력된 제3터치 입력을 감지하며, 상기 시선파악단계는, 상기 제2터치 입력이 감지되는 순간과 상기 제3터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제4응시지점을 파악하고, 상기 입력제어단계는, 상기 제2터치 입력이 감지된 지점과 상기 제3터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제4응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력 및 제3터치 입력을 무시할 수 있다.
실시예에 따르면, 상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈 윤곽을 촬영한 정보가 포함되며, 상기 시선파악단계는, 상기 사용자의 눈 윤곽을 촬영한 정보를 이용하여, 상기 사용자의 시선 추적을 수행하고, 상기 시선 추적 정보를 이용하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈동자를 촬영한 정보가 포함되며, 상기 시선파악단계는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 사용자의 시선 추적, 상기 사용자의 눈동자 추적 및 상기 사용자의 홍채 인식 중 적어도 수행하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 시선파악단계는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 눈동자의 망막에 맺힌 상을 파악하고, 상기 파악된 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 시선파악단계에서 파악된 상기 제1터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점이 존재하지 않는 경우, 상기 입력제어단계는, 상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우로 보아, 상기 감지된 제1터치 입력을 무시할 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 제2실시예에 따른 터치 입력 제어 방법은, 사용자의 제1터치 입력 및 상기 제1터치 입력된 시각을 기준으로 소정의 시간 이내에 입력된 상기 사용자의 제2터치 입력을 감지하는 터치감지단계; 상기 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치가 감지된 시각과 상기 제2터치 입력이 감지된 시각 사이에서 상기 사용자가 응시하는 지점을 파악하는 시선파악단계; 상기 파악된 응시 지점이 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는 입력제어단계를 포함할 수 있다.
상기 시선파악단계에서 파악된 상기 사용자가 응시하는 지점이 복수 개 존재하는 경우, 상기 입력제어단계는, 상기 복수 개의 지점들 중 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 지점이 소정의 비율 이상 존재하는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시할 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 제3실시예에 따른 터치 입력 제어 모듈은, 사용자에 의한 제1터치 입력을 감지하는 터치감지부; 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치 입력이 감지되는 순간 휴대용 단말의 터치 스크린 상에서 상기 사용자가 응시하는 지점인 제1응시지점을 파악하는 시선파악부; 상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우, 상기 감지된 제1터치 입력을 무시하는 입력제어부를 포함할 수 있다.
실시예에 따르면, 상기 터치감지부는, 상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 시선파악부는, 상기 제2터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점인 제2응시지점을 파악하고, 상기 입력제어부는, 상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제2터치 입력이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시하는 입력제어부를 포함할 수 있다.
상기 시선파악부는, 상기 제1터치 입력이 감지되는 순간과 상기 제2터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제3응시지점을 파악하고, 상기 입력제어부는, 상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 제2터치 입력이 존재하지 않고, 상기 제1터치 입력이 감지된 지점과 상기 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제3응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시할 수 있다.
상기 터치감지부는, 상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 제1터치 입력이 입력된 지점 및 상기 제2터치 입력이 입력된 지점과 다른 지점에 입력된 제3터치 입력을 감지하며, 상기 시선파악부는, 상기 제2터치 입력이 감지되는 순간과 상기 제3터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제4응시지점을 파악하고, 상기 입력제어부는, 상기 제2터치 입력이 감지된 지점과 상기 제3터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제4응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력 및 제3터치 입력을 무시할 수 있다.
실시예에 따르면, 상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈 윤곽을 촬영한 정보가 포함되며, 상기 시선파악부는, 상기 사용자의 눈 윤곽을 촬영한 정보를 이용하여, 상기 사용자의 시선 추적을 수행하고, 상기 시선 추적 정보를 이용하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈동자를 촬영한 정보가 포함되며, 상기 시선파악부는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 사용자의 시선 추적, 상기 사용자의 눈동자 추적 및 상기 사용자의 홍채 인식 중 적어도 수행하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 시선파악부는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 눈동자의 망막에 맺힌 상을 파악하고, 상기 파악된 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악할 수 있다.
상기 시선파악부에서 파악된 상기 제1터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점이 존재하지 않는 경우, 상기 입력제어부는, 상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우로 보아, 상기 감지된 제1터치 입력을 무시하는 입력제어부를 포함할 수 있다.
상기 기술적 과제를 달성하기 위한 본 발명의 제4실시예에 따른 터치 입력 제어 방법은, 사용자의 제1터치 입력 및 상기 제1터치 입력된 시각을 기준으로 소정의 시간 이내에 입력된 상기 사용자의 제2터치 입력을 감지하는 터치감지부; 상기 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치가 감지된 시각과 상기 제2터치 입력이 감지된 시각 사이에서 상기 사용자가 응시하는 지점을 파악하는 시선파악부; 상기 파악된 응시 지점이 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는 입력제어부를 포함할 수 있다.
상기 시선파악부에서 파악된 상기 사용자가 응시하는 지점이 복수 개 존재하는 경우, 상기 입력제어부는, 상기 복수 개의 지점들 중 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 지점이 소정의 비율 이상 존재하는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시할 수 있다.
상기와 같은 본 발명에 따르면, 사용자가 휴대용 단말을 이용하는 과정에서 의도하지 않은 터치 입력에 의한 오 입력 발생을 감소 또는 방지할 수 있다.
또한, 상기와 같은 본 발명에 따르면, 오 입력에 의하여 발생되는 사용자가 의도하지 않은 데이터 네트워크나 전력 소모를 방지할 수 있다.
또한, 상기와 같은 본 발명을 이용하여, 터치 스크린 화면의 일부를 휴대용 단말의 지지나 스크롤 기능 등 부가적인 역할을 수행하는 영역으로 지정할 수 있다.
도 1은 사용자의 의도에 부합하지 않은 터치 입력이 발생하는 일 예를 나타내는 도면이다.
도 2는 본 발명에 따른 터치 입력 제어 모듈을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 터치 입력 제어 모듈에 관한 블록도이다.
도 4 내지 도8은 본 발명의 일 실시예에 따른 터치 입력 제어 모듈의 적용 예들을 나타내는 도면이다.
도 9는 본 발명의 일 실시예에 따른 터치 입력 제어 방법에 관한 흐름도이다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
어떤 구성요소가 다른 구성요소에 “연결되어”있다거나 “접속되어”있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어”있다거나 “직접 접속되어”있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함될 수 있다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
도 2는 본 발명에 따른 터치 입력 제어 모듈을 설명하기 위한 도면이다.
도 2를 참조하면, 본 발명에 따른 터치 입력 제어 모듈(300)은 휴대용 단말에 구비된 카메라(11)에 의하여 사용자의 눈, 눈동자를 촬영하고, 촬영된 정보를 이용하여 휴대용 단말에서 사용자의 시선이 위치하는 지점을 파악할 수 있다. 본 발명에 따른 터치 입력 제어 모듈(300)은 파악된 사용자의 시선이 위치하는 지점과 터치 입력된 지점을 이용하여 상기 터치 입력이 오 입력된 터치 입력인지 여부를 결정하고, 오 입력된 터치 입력이라고 결정한 터치 입력은 무시할 수 있다.
본 발명에 따른 터치 입력 제어 모듈(300)은 오 입력된 터치 입력을 무시함으로써, 오 입력된 터치 입력에 의하여 어플리케이션 실행, 화면 전환, 전화 걸림, 디스플레이 밝기 변화 등이 실행되지 않도록 할 수 있다.
본 발명에 따른 터치 입력 제어 모듈(300)은 휴대용 단말에 내장되어, 터치 입력을 제어하는데 이용될 수 있다.
본 발명의 명세서 전반에서 사용되는 "휴대용 단말"은 카메라(11) 및 터치 스크린을 구비하는 스마트폰, 태블릿 PC 등 다양한 IT 기기를 모두 포함할 수 있다.
카메라(11)는 터치 스크린이 존재하는 전방에 위치하는 것이 바람직하다. 터치 스크린은 감압식 터치 스크린, 정전식 터치 스크린을 모두 포함할 수 있으며, 사용자의 손가락에 의하여 입력이 가능한 모든 터치 스크린을 포함할 수 있다.
본 발명의 명세서 전반에서 사용되는 "지점"이라는 용어는, 점(Point)를 의미할 수도 있으나, 소정의 면적을 가지는 영역이 될 수 있으며, 터치 스크린의 입력 위치를 구분하기 위하여 이용되는 좌표 등에서의 하나의 지점을 의미할 수 있다.
구체적으로, 본 발명에 따른 터치 입력 제어 모듈(300)에 관하여 도 3을 참조하여 설명한다.
도 3은 본 발명의 일 실시예에 따른 터치 입력 제어 모듈에 관한 블록도이다.
도 3을 참조하면, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)은 터치감지부(310), 시선파악부(320) 및 입력제어부(330)를 포함한다.
터치감지부(310)는 터치 스크린을 통하여 사용자가 입력하는 터치 입력을 감지한다.
터치감지부(310)가 소정의 시간 이내에 감지하는 서로 상이한 지점의 터치 입력은 하나의 지점뿐만 아니라 복수 개의 지점에서 존재할 수 있다.
시선파악부(320)는 휴대용 단말의 카메라(11)에 의하여 촬영된 정보를 이용하여 사용자의 시선을 파악한다.
시선파악부(320)는 사용자의 시선이 가리키는 방향에 대응되는 터치 스크린 상에서의 응시 지점을 파악할 수 있다.
시선파악부(320)는 터치감지부(310)가 터치를 감지한 시각에 사용자의 응시 지점을 파악할 수 있다. 다만, 시선파악부(320)의 사용자 응시 지점 파악 속도 등에 따라서, 터치를 감지한 시각과 사용자의 응시 지점을 파악한 시각에 소정의 시간 차이가 존재할 수는 있다.
또한, 시선파악부(320)는 소정의 시간 이내의 시간 차이로 터치감지부(310)가 둘 이상의 터치를 감지한 경우, 터치가 감지된 시각 사이의 시각에 사용자가 응시한 지점을 파악할 수도 있다.
구체적으로 시선파악부(320)는 카메라(11)가 사용자의 눈 윤곽 또는 눈동자를 촬영한 정보를 이용하여 시선파악을 할 수도 있다. 필요한 경우, 시선파악부(320)는 휴대용 단말의 카메라(11)가 사용자의 눈 윤곽을 인식하고, 눈 윤곽 또는 눈동자를 촬영하도록 카메라(11)를 제어할 수도 있다.
보다 구체적으로 시선파악부(320)는 카메라(11)에 의하여 촬영된 사용자의 눈 윤곽 정보를 이용하여 휴대용 단말 사용자의 시선 방향을 추적하고, 추적된 시선 방향을 이용하여 터치 스크린 상에서 사용자가 응시하는 지점을 파악할 수 있다.
또는 시선파악부(320)는 카메라(11)에 의하여 촬영된 사용자의 눈동자 정보를 이용하여 휴대용 단말 사용자의 시선 방향 추적, 사용자의 눈동자 방향 추적, 사용자의 홍채 인식 등을 수행할 수 있다. 시선파악부(320)는 상기 추적된 시선 방향, 상기 추적된 눈동자 방향, 상기 인식된 사용자의 홍채 정보를 이용하여 터치 스크린 상에서 사용자가 응시하는 지점을 파악할 수 있다.
시선파악부(320)는 카메라(11)에 의하여 촬영된 사용자의 눈동자 정보를 이용하여 사용자의 응시 지점을 파악하는 과정에서, 보다 정확도 높은 응시 지점을 파악하기 위하여, 사용자의 눈동자 망막에 맺힌 상을 파악하고, 파악된 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악할 수 있다.
즉, 시선파악부(320)는 터치 스크린 상에서 눈동자 망막에 맺힌 상에 대응되는 위치를 파악하여 사용자의 응시 지점을 파악할 수 있다. 시선파악부(320)가 사용자의 눈동자 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악하는 방법은, 독자적으로 사용되거나, 다른 응시 지점을 파악하는 방법과 함께 사용될 수도 있다.
시선파악부(320)는 사용자의 시선이 가리키는 방향에 대응되는 터치 스크린 상에서의 응시 지점이 존재하지 않는 것으로 파악할 수도 있다.
입력제어부(330)는 시선파악부(320)에서 파악된 사용자의 응시 지점을 기반으로 터치감지부(310)에서 감지된 터치 입력 중 오 입력을 파악하고, 오 입력으로 파악된 터치 입력은 무시되도록 입력을 제어할 수 있다.
사용자가 터치 입력을 가하는 경우, 입력을 가하고자 하는 지점을 시각적으로 확인해야 하여 순간적으로 터치 입력을 가하는 지점으로 시선이 향하게 된다. 따라서, 입력제어부(330)는 터치 입력이 가해진 지점과 터치 입력이 가해진 순간 사용자가 시선 방향의 일치 여부를 기반으로 하여, 서로 일치하면 유효한 터치 입력으로 보고, 일치하지 않으면 오 입력된 터치 입력으로 보아 터치 입력을 무시할 수 있다.
구체적으로, 터치감지부(310)가 사용자에 의한 제1터치 입력을 감지하고, 시선파악부(320)가 제1터치 입력을 감지하는 순간 사용자가 응시하는 지점(제1응시지점)을 파악한 경우, 입력제어부(330)는 제1응시지점을 기준으로 소정의 범위 이내에 감지된 제1터치 입력이 존재하지 않는 경우, 제1터치 입력을 무시할 수 있다.
소정의 범위 이내는, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)의 목적 정도, 사용자의 설정, 터치 스크린의 크기, 휴대용 단말의 종류, 카메라(11)의 성능 등 다양한 이유에 따라서 상이할 수 있으며 변경될 수 있다. 즉 예를 들어, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)의 목적 정도에 따라서 소정의 범위가 상이할 수 있다는 것은, 사용자가 휴대용 단말을 파지하는 도중 또는 주머니에 넣고 빼는 과정 등에서 주로 터치 스크린의 주변 부분을 잘못 터치하여 발생되는 입력을 무시하기 위한 목적으로 본 발명이 이용된다면, 소정의 범위는 터치 스크린의 가로와 세로 중 보다 짧은 거리의 1/4정도 길이를 지름으로 하여 형성된 원의 범위가 되어도 괜찮을 것이다. 다만, 이는 일 예에 불과하며, 앞서 기재한 바와 같이 다양한 이유로 인하여 변경될 수 있으며, 소정의 범위로 형성된 영역의 형태도, 원이 아닌 다양한 다각형 형태가 될 수도 있다.
입력제어부(330)는 제1응시지점을 기준으로 소정의 범위 이내에 제1터치 입력이 존재하는 경우, 제1터치 입력을 유효한 입력으로 수신할 수 있고, 휴대용 단말은 어플리케이션 실행, 전화 걸기, 화면 이동, 화면 밝기 조절 등 입력에 대응되는 실행을 수행할 수 있다.
입력제어부(330)에 의하여 제1터치 입력이 무시된 후, 터치감지단계가 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하면, 시선파악부(320)는 제2터치 입력이 감지되는 순간의 사용자가 응시하는 지점인 제2응시지점을 파악할 수 있다. 입력제어부(330)는 제2응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제2터치 입력이 존재하지 않는 경우, 제2터치 입력을 무시할 수 있다. 반면에, 제2응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제2터치 입력이 존재하는 경우, 입력제어부(330)는 제2터치 입력을 유효한 입력으로 제어할 수 있다.
또는, 입력제어부(330)는 제1터치 입력과 제2터치 입력이 멀티 터치일 경우를 고려하여 입력을 무시할지 여부를 결정할 수 있다.
즉, 시선파악부(320)는 제1터치 입력이 감지되는 순간과 제2터치 입력이 감지되는 순간 사이의 시점에서 사용자가 응시하는 지점인 제3응시지점을 파악할 수 있다. 입력제어부(330)는 제2응시지점을 기준으로 소정의 범위 이내에 상기 제2터치 입력이 존재하지 않으면서, 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하지 않는 경우, 감지된 제2터치 입력을 무시하여 멀티 터치일 경우를 고려하여 입력을 무시할 수 있다.
반면에, 제2응시지점을 기준으로 소정의 범위 이내에 제2터치 입력이 존재하지 않으나, 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하는 경우, 입력제어부(330)는 감지된 제2터치 입력과 제1터치 입력은 유효한 멀티 터치 입력으로 제어할 수 있다.
멀티 터치의 경우, 일반적으로 사용자는 멀티터치의 중심점 부근이 관심사를 가지며, 따라서, 멀티 터치의 중심점 부근에 사용자의 시선이 향하는 지점이 존재할 수 있다. 따라서, 앞서 기재된 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역은 멀티터치의 중심점 부근을 포함하는 영역으로 형성되는 것이 바람직하다. 그러한 일 예로는, 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 모서리로 하여 형성된 사각형 영역 또는 지름으로 하여 형성된 원이 될 수 있다. 다른 예로는, 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이은 선의 중심 지점을 기준으로 하여 소정의 범위 이내에 형성된 영역이 될 수 있다.
차후 도 4 내지 도 8을 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)의 적용 예에 관하여 설명할 때, 서로 다른 두 개의 터치 입력을 이용하여 형성된 영역은, 서로 다른 두 개의 터치 입력을 이은 선의 중심 지점을 기준으로 하여 소정의 범위 이내에 형성된 영역 인 것으로 가정할 수 있다.
멀티 터치의 경우 입력제어부(330)는 앞서 설명한 바와 다소 상이하게 동작할 수도 있다. 구체적으로 설명하면, 터치감지부(310)에서 감지된 제1터치 입력이 있은 후 제2터치 입력이 소정의 시간 이내에 감지된 경우, 입력제어부(330)는 제1터치 입력이 제1응시지점을 기준으로 소정의 범위 이내에 존재하는지 여부를 판단하지 않을 수 있다. 또한, 입력제어부(330)는 제2터치 입력이 제2응시지점을 기준으로 소정의 범위 이내에 존재하는지 여부를 판단하지 않을 수 있다. 그리고, 입력제어부(330)는 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하는지 여부를 기반으로만 제1터치 입력 및 제2터치 입력을 무시할 수 있다.
소정의 시간은 사용자가 멀티 터치를 의도적으로 입력 했을 확률이 높은 경우를 고려하여 설정될 수 있으며, 휴대용 단말의 성능, 휴대용 단말의 멀티 터치 인식 기준 등에 따라서 상이하게 설정되거나 변경될 수 있다.
제1터치 입력의 입력 시각과 제2터치 입력의 입력 시각의 차이가 소정의 시간 이내, 즉, 짧은 경우, 사용자가 멀티 터치를 위하여 의도적으로 멀티 터치 입력을 했을 확률이 높기 때다. 이러한 경우, 입력제어부(330)의 연산 속도 향상 및 반응 속도 향상을 위하여, 입력제어부(330)는 제1터치 입력이 제1응시지점을 기준으로 소정의 범위 이내에 존재하는지 여부와 입력제어부(330)는 제2터치 입력이 제2응시지점을 기준으로 소정의 범위 이내에 존재하는지 여부를 판단하지 않을 수 있다.
다만, 제1터치 입력의 입력 시각과 제2터치 입력의 입력 시각의 차이가 소정의 시간 이내이더라도, 사용자가 의도하지 않게 서로 다른 두 지점 이상을 잘못 터치할 수 있는 경우가 있으므로 입력제어부(330)는 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하는지 여부를 기반으로만 제1터치 입력 및 제2터치 입력을 무시할 수 있도록 동작이 설정될 수 있다.
즉, 구체적으로 입력제어부(330)는 입력제어부(330)는 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하는 경우에 제1터치 입력 및 제2터치 입력을 유효한 입력으로 제어한다. 반면에, 입력제어부(330)는 제1터치 입력이 감지된 지점과 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 제3응시지점이 존재하지 않는 경우에 제1터치 입력 및 제2터치 입력을 모두 무시하도록 입력을 제어할 수 있다.
본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)은 터치 감지부가 제1터치 입력 및 제2터치뿐만 아니라, 순차적으로 또는 거의 동시에 제3터치 입력, 제4터치 입력을 감지하는 경우에도, 입력제어부(330)는 상기 설명한 바를 응용하여, 제3터치 입력, 제4터치 입력의 무시 여부를 결정하여 입력을 제어할 수 있다.
또한, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)의 적용은 터치감지부(310)가 제1터치 입력 이전에 감지한 터치 입력도 하나 이상 존재하여, 입력제어부(330)가 유효한 입력 또는 무시하는 입력으로 제어한 하나 이상의 터치 입력이 존재하는 경우에도 적용될 수 있음은 자명하다.
구체적으로 도 4 내지 8을 참조하여, 다양한 예에서 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 예를 설명한다.
도 4 내지 도8은 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)의 적용 예들을 나타내는 도면이다.
도 4를 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 제1예를 설명한다.
도 4의 상황을 구체적으로 예를 들면, 사용자가 왼손으로 휴대용 단말을 파지하고 오른손으로 터치 입력을 가하는 경우, 왼손의 엄지손가락이 휴대용 단말을 파지하는 과정에서 터치 스크린을 터치한 상황을 들 수 있다.
계속하여, 도 4를 참조하면 터치감지부(310)는 제1터치 입력(31)과 제2터치 입력(32)를 감지할 수 있다. 제1터치 입력(31)과 제2터치 입력(32)의 감지 순서의 변화는 입력제어부(330)의 제어 결과에 영향을 미치지 않을 수 있다.
도 4에서, 터치감지부(310)는 제1터치 입력(31)과 제2터치 입력(32)를 감지한다. 시선파악부(320)는 제1터치 입력(31)이 감지되는 순간 터치스크린(12) 상에서 사용자의 시선에 대응되는 제1응시지점이 없는 것으로 파악한다. 또한, 시선파악부(320)는 제2터치 입력(32)이 감지되는 순간 터치스크린(12)상에서 사용자의 시선에 대응되는 제2응시지점(W2)을 파악한다.
입력제어부(330)는 제2응시지점(W2)을 기준으로 소정의 범위 이내(42)에 제2터치 입력(32)이 존재하므로, 제2터치 입력을 유효한 터치 입력으로 제어한다. 반면에, 입력제어부(330)는 제1응시지점이 존재하지 않으므로, 제1응시지점을 기준으로 소정의 범위 이내에 제1터치 입력(31)이 존재하지 않으므로, 제1터치 입력을 무시하도록 입력을 제어할 수 있다.
만약, 도 4에서, 터치감지부(310)가 제1터치 입력(31)과 제2터치 입력(32)을 감지한 시간 차이가 소정의 시간 차 이내인 것으로 감지한 경우, 멀티 터치일 가능성을 배제할 수 없다. 따라서, 시선파악부(320)는 제1터치 입력(31) 순간과 제2터치 입력(32) 순간의 사이 시간에서 사용자가 응시하는 응시지점인 제3응시지점을 파악할 수 있다. 입력제어부(330)는 제1터치 입력(31)과 제2터치 입력(32)을 이용하여 형성된 영역 내에 제3응시지점이 존재하는지 여부를 판단하여, 존재하는 경우 제1입력 터치(31)를 무시하지 않고, 제2입력 터치(32)와 함께 유효한 멀티 터치 입력으로 인식하도록 제어할 수도 있다.
시선파악부(320)에 의하여 파악된 제3응시지점이 W2이며, 제1터치 입력(31)과 제2터치 입력(32)을 이용하여 형성된 영역(Area12)이 제1터치 입력(31)과 제2터치 입력(32) 사이의 직선거리의 중심(C12)을 기준으로 소정의 범위 이내인 경우, 제3응시지점(W2)은 영역 Area12 에 포함되지 않으므로, 앞서 판단에 따라서, 입력제어부(330)는 제1입력 터치(31)와 제2입력 터치(32)는 멀티 터치가 아니며, 제2입력 터치(32)는 유효한 입력으로, 제1입력 터치(31)는 무시할 입력으로 입력을 제어할 수 있다.
다음으로, 도 5를 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 제2예를 설명한다.
도 5의 상황을 구체적으로 예를 들면, 사용자가 오른손의 엄지와 중지를 이용하여 멀티 터치 입력을 하는 과정에서, 휴대용 단말을 파지하고 있던 왼손의 엄지손가락이 의도치 않게 터치 입력을 가하는 상황을 들 수 있다.
도 5에서, 터치감지부(310)는 제1터치 입력(31), 제2터치 입력(32) 및 제3터치 입력(33)을 감지한다.
시선파악부(320)는 제1터치 입력(31)이 입력된 순간 사용자의 응시 지점(W1), 제2터치 입력(32)이 입력된 순간 사용자의 응시지점(W2), 제3터치 입력(33)이 입력된 순간 사용자의 응시지점(W3), 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4), 제1터치 입력(31)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W5), 제2터치 입력(32)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W6)를 파악한다.
제1터치 입력(31)이 입력된 순간 사용자의 응시 지점(W1)이 터치 스크린(12) 상에 존재하지 않으므로 W1을 기준으로 소정의 범위 이내에 제1터치 입력(31)이 존재하지 않으며, 제2터치 입력(32) 또는 제3 터치 입력(33)을 이용하여 형성된 범위 이내에도 W2 또는 W3가 존재하지 않으므로, 입력제어부(330)는 제1터치 입력(31)을 무시하도록 입력을 제어할 수 있다.
만약, 터치감지부(310)가 제1터치 입력(31)을 감지한 시각이 제2터치 입력(32) 및 제3터치 입력(33)과 소정의 시간 이상 차이가 나는 경우, 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4), 제1터치 입력(31)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W5)을 파악하지 않을 수도 있다. 또한, 입력제어부(330)는 제1터치 입력(31)이, 제2터치 입력(32)이나 제3터치 입력(33)과 멀티 터치일 가능성을 판단하기 위하여 제2터치 입력(32) 또는 제3 터치 입력(33)을 이용하여 형성된 범위 이내에도 W2 또는 W3가 존재하는지 여부를 판단하지 않을 수 있다.
계속하여 도 5를 참조하면, W2의 소정의 범위 이내에 제2터치 입력(32)이 존재하지 않고, W3의 소정의 범위 이내에 제2터치 입력(33)이 존재하지 않지만, 시선파악부(320)에서 파악된 응시지점 W6이 제2터치 입력(32)과 제3터치 입력(33)을 이용하여 형성된 영역(Area23) 내에 존재하는 바, 입력제어부(330)는 제2터치 입력(32)과 제3터치 입력(33)을 유효한 멀티 터치 입력으로 입력을 제어할 수 있다. 도 5에는 표시되지 않았지만, W2와 W3도 Area23 영역 이내에 존재할 수 있다. 영역 Area23은 제1터치 입력(32)과 제3터치 입력(33)을 이은 직선의 중심(C23)을 기준으로 소정의 범위를 의미한다.
만약, 터치감지부(310)가 제2터치 입력(32)의 입력 시각과 제3터치 입력(33)의 입력 시각 차이가 소정의 시각 차이 이내인 경우, 제2터치 입력(32)과 제3터치 입력(33)이 멀티 터치 입력인 것으로 가정하여, 입력제어부(330)는 시선파악부(320)에서 파악된 응시지점 W6가 Area23 영역 내에 존재하는지 여부만을 판단하여 제2터치 입력(32)과 제3터치 입력(33)를 무시할 것인지, 유효하게 제어할 것인지를 결정할 수도 있다.
다음으로, 도 6를 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 제3예를 설명한다.
도 6의 상황을 구체적으로 예를 들면, 사용자가 휴대용 단말 터치 입력을 방지하는 잠금을 하지 않고, 휴대용 단말을 잠시 주머니에 넣었다가 빼는 과정에서 휴대폰을 파지하면서 사용자의 의도와 무관하게 실수로 검지, 중지, 약지로 터치 스크린(12)에 터치를 가하는 상황이다.
도 6에서, 터치감지부(310)는 제1터치 입력(31), 제2터치 입력(32) 및 제3터치 입력(33)을 거의 동시에 감지한다. 즉, 제1터치 입력(31), 제2터치 입력(32) 및 제3터치 입력(33)의 감지 시간은 서로 소정의 시간 차 이내에 존재한다.
시선파악부(320)는 제1터치 입력(31)이 입력된 순간 사용자의 응시 지점(W1), 제2터치 입력(32)이 입력된 순간 사용자의 응시지점(W2), 제3터치 입력(33)이 입력된 순간 사용자의 응시지점(W3), 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4), 제1터치 입력(31)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W5), 제2터치 입력(32)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W6)를 파악할 수 있다. 또는, 시선파악부(320)는 제1터치 입력(31), 제2터치 입력(32) 및 제3터치 입력(33)을 거의 동시에 감지된바, 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4), 제1터치 입력(31)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W5), 제2터치 입력(32)이 입력된 순간과 제3터치 입력(33)이 입력된 순간 사이에서 사용자가 응시한 지점(W6)만을 파악할 수도 있다.
도 6에서 시선파악부(320)가 파악한 사용자가 응시한 지점은 존재하지 않는 것을 볼 수 있다. 즉, 제1터치 입력(31)과 제2터치 입력(32)에 의하여 형성된 영역, 제1터치 입력(31)과 제3터치 입력(33)에 의하여 형성된 영역, 제2터치 입력(32)과 제3터치 입력(33)에 의하여 형성된 영역 이내에 사용자의 응시지점이 존재하지 않는다. 따라서, 입력제어부(330)는 제1터치 입력(31), 제2터치 입력(32) 및 제3터치 입력(33)을 모두 무시하도록 입력을 제어할 수 있다. 도 6에서는 제2터치 입력(32)과 제3터치 입력(33)에 의하여 형성된 영역만을 표시하고 있으나, 다른 영역들도 자명하게 유추할 수 있을 것이다.
다음으로, 도 7를 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 제4예를 설명한다.
도 7의 상황을 구체적으로 예를 들면, 사용자가 동영상 감상을 위하여 양손으로 휴대용 단말을 파지하고 있는 상황이다.
도 7에서, 터치감지부(310)는 제1터치 입력(31)과 제2터치 입력(32)을 감지한다. 시선파악부(320)는 제1터치 입력(31)이 입력된 순간 사용자의 응시 지점(W1), 제2터치 입력(32)이 입력된 순간 사용자의 응시지점(W2), 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4)을 파악한다. 도 7에서, 시선파악부(320)가 파악한 시선은 W4가 존재한다.
입력제어부(330)는 제1터치 입력(31)과 제2터치 입력(32) 모두 W4를 기준으로 소정의 범위 이내에 존재하지 않으며, 제1터치 입력(31)과 제2터치 입력을 이용하여 형성된 영역 이내에 W4가 존재하지 않는 바, 제1터치 입력(31)과 제2터치 입력(32)을 모두 무시하도록 입력을 제어할 수 있다.
다음으로, 도 8를 참조하여, 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 제5예를 설명한다.
시선파악부(320)가 파악한 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점(W4)은 둘 이상의 지점이 될 수 있다.
즉, 도 8은 시선파악부(320)가 파악한 제1터치 입력(31)이 입력된 순간과 제2터치 입력(32)이 입력된 순간 사이에서 사용자가 응시한 지점이 둘 이상인 경우 본 발명의 일 실시예에 따른 터치 입력 제어 모듈(300)이 적용되는 예를 설명한다.
도 8은 도 7과 유사한 상황이다. 시선파악부(320)가 제1터치 입력(31)이 감지된 시각과 제2터치 입력(32)이 감지된 시각 사이에 사용자가 응시한 6개 지점(W6a 내지 W6f)을 파악한 경우, 입력제어부(330)는 시선파악부(320)가 파악한 6개 지점 각각이 제1터치 입력(31)과 제2터치 입력(32)을 이용하여 형성된 영역(52)에 존재하는지를 판단할 수 있다. 입력제어부(330)는 판단 결과 소정의 비율 이상에 해당하는 지점이 제1터치 입력(31)과 제2터치 입력(32)을 이용하여 형성된 영역(52)에 존재하는 경우에만, 제1터치 입력(31)과 제2터치 입력(32)을 유효한 터치 입력으로 제어할 수 있다. 소정의 비율이 70%라고 가정하면, 도 8에서는 시선파악부(320)가 파악한 6개의 지점(W6a 내지 W6f) 중에서 1개의 지점(W6c) 만이 영역(52)에 존재하는 바 약 16.67%의 비율에 해당한다. 따라서, 도 8에서 입력제어부(330)는 제1터치 입력(31)과 제2터치 입력(32)을 무시하도록 입력을 제어할 수 있다.
도 9는 본 발명의 일 실시예에 따른 입력 제어 방법에 관한 흐름도이다.
도 9를 참조하여 본 발명의 일 실시예에 따른 입력 제어 방법을 설명하면, 터치감지부(310)가 사용자의 터치 입력을 감지할 수 있다(S910 단계).
시선파악부(320)가 터치감지부(310)에서 터치 입력이 감지된 순간 사용자 시선이 가리키는 터치 스크린 상에 대응되는 응시 지점을 파악할 수 있다(S920 단계). 필요한 경우, 시선파악부(320)는 터치감지부(310)에서 감지된 복수의 터치 입력이 각각 감지된 시각 사이에 존재하는 사용자 시선이 가리키는 응시 지점을 파악할 수도 있다.
입력제어부(330)는 시선파악부(320)에 의하여 파악된 시선이 가리키는 응시 지점에 기반하여 상기 터치감지부(310)에 의하여 감지된 터치 입력을 무시할 지 여부를 판단하여 입력을 제어할 수 있다(S930 단계).
도 9를 참조하여 설명하는 본 발명의 일 실시예에 따른 입력 제어 방법은 도 2내지 도 8을 참조하여 설명한 본 발명의 일 실시예에 따른 입력 제어 모듈의 설명을 적용할 수 있음은 자명하다.
또한, 도 4 내지 도 8은 본 발명의 일 실시예에 따른 입력 제어 모듈이 적용되는 예들을 설명하기 위한 것일 뿐이며, 이러한 상황에만 본 발명이 한정되어 적용되는 것은 아니다. 마찬가지로 도 9를 참조하여 설명하는 본 발명의 일 실시예에 따른 입력 제어 방법 또한, 도 4 내지 도 8과 같은 상황에서만 적용되는 것은 아니며, 도 2 내지 도 3을 참조하여 설명한 바에 따라서, 해당 분야의 통상의 기술자가 용이하게 유추할 수 있는 범위에 한하여 본 발명이 적용될 수 있다.
상기와 같은 본 발명의 일 실시예에 따른 입력 제어 모듈 및 방법은, 사용자가 휴대용 단말을 이용하는 과정에서 의도하지 않은 터치 입력에 의한 오 입력 발생을 감소 또는 방지할 수 있다.
또한, 본 발명의 일 실시예에 따른 입력 제어 모듈 및 방법은 오 입력에 의하여 발생되는 사용자가 의도하지 않은 데이터 네트워크나 전력 소모를 방지할 수 있다.
또한, 본 발명의 일 실시예에 따른 입력 제어 모듈 및 방법을 이용하여 터치 스크린 화면의 일부를 휴대용 단말의 지지나 스크롤 기능 등 부가적인 역할을 수행하는 영역으로 지정할 수 있다.
도 3의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.
이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (20)

  1. 사용자에 의한 제1터치 입력을 감지하는 터치감지단계;
    카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치 입력이 감지되는 순간 휴대용 단말의 터치 스크린 상에서 상기 사용자가 응시하는 지점인 제1응시지점을 파악하는 시선파악단계;
    상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우, 상기 감지된 제1터치 입력을 무시하는 입력제어단계를 포함하되,
    상기 터치감지단계는,
    상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고,
    상기 시선파악단계는,
    상기 제2터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점인 제2응시지점을 파악하며,
    상기 제1터치 입력이 감지되는 순간과 상기 제2터치 입력이 감지되는 순간 사이에 상기 사용자가 응시하는 지점인 제3응시지점을 파악하고,
    상기 입력제어단계는,
    상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 제2터치 입력이 존재하지 않고, 상기 제1터치 입력이 감지된 지점 및 상기 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제3응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시하는,
    터치 입력 제어 방법.
  2. 삭제
  3. 삭제
  4. 제 1 항에 있어서,
    상기 터치감지단계는,
    상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 제1터치 입력이 입력된 지점 및 상기 제2터치 입력이 입력된 지점과 다른 지점에 입력된 제3터치 입력을 감지하며,
    상기 시선파악단계는,
    상기 제2터치 입력이 감지되는 순간과 상기 제3터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제4응시지점을 파악하고,
    상기 입력제어단계는,
    상기 제2터치 입력이 감지된 지점과 상기 제3터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제4응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력 및 제3터치 입력을 무시하는, 터치 입력 제어 방법.
  5. 제 1 항에 있어서,
    상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈 윤곽을 촬영한 정보가 포함되며,
    상기 시선파악단계는, 상기 사용자의 눈 윤곽을 촬영한 정보를 이용하여, 상기 사용자의 시선 추적을 수행하고, 상기 시선 추적 정보를 이용하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 방법.
  6. 제 5 항에 있어서,
    상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈동자를 촬영한 정보가 포함되며,
    상기 시선파악단계는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 사용자의 시선 추적, 상기 사용자의 눈동자 추적 및 상기 사용자의 홍채 인식 중 적어도 수행하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 방법.
  7. 제 1 항에 있어서,
    상기 시선파악단계는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 눈동자의 망막에 맺힌 상을 파악하고, 상기 파악된 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 방법.
  8. 제 1 항에 있어서,
    상기 시선파악단계에서 파악된 상기 제1터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점이 존재하지 않는 경우,
    상기 입력제어단계는,
    상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우로 보아, 상기 감지된 제1터치 입력을 무시하는, 터치 입력 제어 방법.
  9. 사용자의 제1터치 입력 및 상기 제1터치 입력된 시각을 기준으로 소정의 시간 이내에 입력된 상기 사용자의 제2터치 입력을 감지하는 터치감지단계;
    상기 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치가 감지된 시각과 상기 제2터치 입력이 감지된 시각 사이에서 상기 사용자가 응시하는 지점을 파악하는 시선파악단계;
    상기 파악된 응시 지점이 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는 입력제어단계를 포함하는, 터치 입력 제어 방법.
  10. 제 9 항에 있어서,
    상기 시선파악단계에서 파악된 상기 사용자가 응시하는 지점이 복수 개 존재하는 경우,
    상기 입력제어단계는,
    상기 복수 개의 지점들 중 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 지점이 소정의 비율 이상 존재하는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는, 터치 입력 제어 방법.
  11. 사용자에 의한 제1터치 입력을 감지하는 터치감지부;
    카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치 입력이 감지되는 순간 휴대용 단말의 터치 스크린 상에서 상기 사용자가 응시하는 지점인 제1응시지점을 파악하는 시선파악부;
    상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우, 상기 감지된 제1터치 입력을 무시하는 입력제어부를 포함하되,
    상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고,
    상기 시선파악부는, 상기 제2터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점인 제2응시지점을 파악하며,
    상기 제1터치 입력이 감지되는 순간과 상기 제2터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제3응시지점을 파악하고,
    상기 입력제어부는,
    상기 제2응시지점을 기준으로 소정의 범위 이내에 상기 제2터치 입력이 존재하지 않고, 상기 제1터치 입력이 감지된 지점과 상기 제2터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제3응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력을 무시하는,
    터치 입력 제어 모듈.
  12. 삭제
  13. 삭제
  14. 제 11 항에 있어서,
    상기 터치감지부는,
    상기 제1터치 입력이 입력된 지점과 다른 지점에 입력된 제2터치 입력을 감지하고, 상기 제1터치 입력이 입력된 지점 및 상기 제2터치 입력이 입력된 지점과 다른 지점에 입력된 제3터치 입력을 감지하며,
    상기 시선파악부는,
    상기 제2터치 입력이 감지되는 순간과 상기 제3터치 입력이 감지되는 순간 사이 시간에 상기 사용자가 응시하는 지점인 제4응시지점을 파악하고,
    상기 입력제어부는,
    상기 제2터치 입력이 감지된 지점과 상기 제3터치 입력이 감지된 지점을 이용하여 형성된 영역 이내에 상기 제4응시지점이 존재하지 않는 경우, 상기 감지된 제2터치 입력 및 제3터치 입력을 무시하는, 터치 입력 제어 모듈.
  15. 제 11 항에 있어서,
    상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈 윤곽을 촬영한 정보가 포함되며,
    상기 시선파악부는, 상기 사용자의 눈 윤곽을 촬영한 정보를 이용하여, 상기 사용자의 시선 추적을 수행하고, 상기 시선 추적 정보를 이용하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 모듈.
  16. 제 15 항에 있어서,
    상기 카메라에 의하여 촬영된 정보는, 상기 사용자의 눈동자를 촬영한 정보가 포함되며,
    상기 시선파악부는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 사용자의 시선 추적, 상기 사용자의 눈동자 추적 및 상기 사용자의 홍채 인식 중 적어도 수행하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 모듈.
  17. 제 11 항에 있어서,
    상기 시선파악부는, 상기 사용자의 눈동자를 촬영한 정보를 이용하여, 상기 눈동자의 망막에 맺힌 상을 파악하고, 상기 파악된 망막에 맺힌 상을 이용하여 상기 사용자의 응시 지점을 파악하는, 터치 입력 제어 모듈.
  18. 제 11 항에 있어서,
    상기 시선파악부에서 파악된 상기 제1터치 입력이 감지되는 순간의 상기 사용자가 응시하는 지점이 존재하지 않는 경우,
    상기 입력제어부는,
    상기 제1응시지점을 기준으로 소정의 범위 이내에 상기 감지된 제1터치 입력이 존재하지 않는 경우로 보아, 상기 감지된 제1터치 입력을 무시하는 입력제어부를 포함하는, 터치 입력 제어 모듈.
  19. 사용자의 제1터치 입력 및 상기 제1터치 입력된 시각을 기준으로 소정의 시간 이내에 입력된 상기 사용자의 제2터치 입력을 감지하는 터치감지부;
    상기 카메라에 의하여 촬영된 정보를 이용하여 상기 제1터치가 감지된 시각과 상기 제2터치 입력이 감지된 시각 사이에서 상기 사용자가 응시하는 지점을 파악하는 시선파악부;
    상기 파악된 응시 지점이 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는 입력제어부를 포함하는, 터치 입력 제어 모듈.
  20. 제 19 항에 있어서,
    상기 시선파악부에서 파악된 상기 사용자가 응시하는 지점이 복수 개 존재하는 경우,
    상기 입력제어부는,
    상기 복수 개의 지점들 중 상기 제1터치 입력이 입력된 지점과 상기 제2터치 입력이 입력된 지점에 의하여 형성된 영역 이내에 존재하지 않는 지점이 소정의 비율 이상 존재하는 경우, 상기 감지된 제1터치 입력과 상기 감지된 제2터치 입력을 무시하는, 터치 입력 제어 모듈.
KR1020130084122A 2013-07-17 2013-07-17 터치 입력 제어 방법 및 모듈 KR101477181B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130084122A KR101477181B1 (ko) 2013-07-17 2013-07-17 터치 입력 제어 방법 및 모듈

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130084122A KR101477181B1 (ko) 2013-07-17 2013-07-17 터치 입력 제어 방법 및 모듈

Publications (1)

Publication Number Publication Date
KR101477181B1 true KR101477181B1 (ko) 2014-12-29

Family

ID=52680151

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130084122A KR101477181B1 (ko) 2013-07-17 2013-07-17 터치 입력 제어 방법 및 모듈

Country Status (1)

Country Link
KR (1) KR101477181B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160097628A (ko) * 2015-02-09 2016-08-18 주식회사 엘지유플러스 터치 동작 처리 방법 및 단말기
WO2017175962A1 (ko) * 2016-04-05 2017-10-12 삼성전자 주식회사 화면을 표시하는 전자 장치 및 그 제어 방법
CN109308117A (zh) * 2018-08-31 2019-02-05 北京羽扇智信息科技有限公司 点击行为的处理方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203671A (ja) * 2011-03-25 2012-10-22 Nec Casio Mobile Communications Ltd 電子機器、情報生成方法及びプログラム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203671A (ja) * 2011-03-25 2012-10-22 Nec Casio Mobile Communications Ltd 電子機器、情報生成方法及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160097628A (ko) * 2015-02-09 2016-08-18 주식회사 엘지유플러스 터치 동작 처리 방법 및 단말기
KR101690404B1 (ko) * 2015-02-09 2017-01-09 주식회사 엘지유플러스 터치 동작 처리 방법 및 단말기
WO2017175962A1 (ko) * 2016-04-05 2017-10-12 삼성전자 주식회사 화면을 표시하는 전자 장치 및 그 제어 방법
US11068160B2 (en) 2016-04-05 2021-07-20 Samsung Electronics Co., Ltd. Electronic device for displaying picture and control method therefor
CN109308117A (zh) * 2018-08-31 2019-02-05 北京羽扇智信息科技有限公司 点击行为的处理方法及装置

Similar Documents

Publication Publication Date Title
US11023038B2 (en) Line of sight detection adjustment unit and control method
US9111076B2 (en) Mobile terminal and control method thereof
WO2019184258A1 (zh) 一种显示控制方法及电子设备
CN106933343B (zh) 用于识别虚拟现实头戴装置中的手势的设备和方法
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
JP4275151B2 (ja) ユーザが調整可能な閾値を用いる赤目補正方法及び装置
CN108135658B (zh) 手术控制设备、手术控制方法及存储介质
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
KR20140096861A (ko) 모바일 장치 및 이의 구동 방법
WO2013161162A1 (ja) 入力装置、入力支援方法及びプログラム
US10156938B2 (en) Information processing apparatus, method for controlling the same, and storage medium
US20120113151A1 (en) Display apparatus and display method
AU2017293746A1 (en) Electronic device and operating method thereof
KR101745651B1 (ko) 손 제스처 인식 시스템 및 방법
JPWO2017038241A1 (ja) 機器操作装置、機器操作方法、及び電子機器システム
US9779552B2 (en) Information processing method and apparatus thereof
JP6177482B1 (ja) タッチパネル入力装置、タッチジェスチャ判定装置、タッチジェスチャ判定方法、及びタッチジェスチャ判定プログラム
EP3188075B1 (en) Apparatus and method for recognizing hand gestures in a virtual reality headset
KR101477181B1 (ko) 터치 입력 제어 방법 및 모듈
EP3255523B1 (en) Electronic device, photographing method and photographing apparatus
US10078396B2 (en) Optical touch sensing device and touch signal determination method thereof
KR20110083770A (ko) 눈 깜빡임의 인식에 따른 단말의 기능 수행 방법 및 이를 적용한 단말
CN105912158A (zh) 一种移动终端的触屏拍照方法、装置及移动终端
CN103809787A (zh) 适于接触控制及悬浮控制的触控系统及其操作方法
US20210278899A1 (en) Display control method, display control system and wearable device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20181224

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20191209

Year of fee payment: 6