KR20170130090A - 전자 장치 및 이의 입력 처리 방법 - Google Patents
전자 장치 및 이의 입력 처리 방법 Download PDFInfo
- Publication number
- KR20170130090A KR20170130090A KR1020160060678A KR20160060678A KR20170130090A KR 20170130090 A KR20170130090 A KR 20170130090A KR 1020160060678 A KR1020160060678 A KR 1020160060678A KR 20160060678 A KR20160060678 A KR 20160060678A KR 20170130090 A KR20170130090 A KR 20170130090A
- Authority
- KR
- South Korea
- Prior art keywords
- user input
- input
- touch
- user
- determined
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
- G06F3/04186—Touch location disambiguation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
터치 스크린을 포함하는 전자 장치의 입력 처리 방법으로, 상기 터치 스크린을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인하는 단계, 저장된 사용자 입력 구분 기준에 기반하여, 상기 속성 정보로부터 사용자 입력을 결정하는 단계, 및 상기 결정된 사용자 입력에 대응하는 기능을 실행하는 단계를 포함한다. 다만, 상기 실시 예에 한정되지 않으며 다른 실시 예가 가능하다.
Description
본 발명은 전자 장치 및 이의 입력 처리 방법에 관한 것으로, 구체적으로 터치 스크린을 포함하는 전자 장치에서의 입력 처리 방법을 제공한다.
오늘 날의 스마트폰, 태블릿 PC 등과 같은 휴대 단말기뿐만 아니라 다양한 전자 장치들은 사용자의 입력을 직관적으로 처리할 수 있도록 터치 패널을 구비하는 추세이다. 터치 패널은 디스플레이 패널과 하나의 모듈을 이루어 터치 스크린의 형태로 사용자에게 제공될 수 있다.
한편, 기술의 발달로 전자 장치가 구현하는 기술은 점점 더 복잡해지고 있다. 전자 장치가 제공하는 다양한 기능을 효율적이고 직관적으로 실행하기 위하여, 전자 장치와 사용자 간의 인터렉션(interaction)이 점점 더 중요해지고 있다.
일반적으로 터치 스크린을 통한 터치 입력의 경우 터치 좌표, 시간 및 횟수에 기반하여 입력을 처리한다. 본 발명은 터치 좌표, 시간 및 횟수와 같은 터치 입력 관련 기존 활용 정보뿐만 아니라 이외의 다양한 정보를 이용하여 입력을 처리하고 이에 대응하는 기능을 실행하는 방안을 제공하는 것을 목적으로 한다.
상기 목적을 실현하기 위한 본 발명의 한 실시 예에 따른 터치 스크린을 포함하는 전자 장치의 입력 처리 방법은, 상기 터치 스크린을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인하는 단계; 저장된 사용자 입력 구분 기준에 기반하여, 상기 속성 정보로부터 사용자 입력을 결정하는 단계; 및 상기 결정된 사용자 입력에 대응하는 기능을 실행하는 단계를 포함할 수 있다.
본 발명의 한 실시 예에 따른 전자 장치는, 터치 입력을 감지하는 터치 스크린; 사용자 입력 구분 기준을 저장하는 저장부; 및 상기 터치 스크린을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인하고, 상기 저장된 사용자 입력 구분 기준에 기반하여 상기 속성 정보로부터 사용자 입력을 결정하며, 상기 결정된 사용자 입력에 대응하는 기능을 실행하도록 제어하는 적어도 하나의 프로세서를 포함할 수 있다.
본 기술에 따르면, 추가적인 하드웨어를 탑재하지 않고 소프트웨어적인 개선을 통해 기존 터치 스크린을 이용하여 터치 입력으로부터 다양한 명령 생성이 가능하다. 따라서, 사용자와 전자 장치간 터치 스크린을 통한 인터렉션을 향상시킬 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치를 개략적으로 나타내는 블록도이다.
도 2는 본 발명의 실시 예에 따른 터치 입력의 구분을 설명하기 위한 도면이다.
도 3a는 본 발명의 실시 예에 따른 일반 터치 입력을 설명하기 위한 도면이다.
도 3b는 본 발명의 실시 예에 따른 구분된 터치 입력을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 전자 장치의 입력 처리 방법을 나타내는 순서도이다.
도 5는 본 발명의 실시 예에 따른 전자 장치의 사용자 입력 구분 기준을 결정하는 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시 예에 따른 터치 스크린의 구분된 위치 별로 사용자 입력 구분 기준을 결정하는 예시를 나타내는 도면이다.
도 7a는 본 발명의 실시 예에 따른 사용자 입력 구분 오류를 설명하기 위한 도면이다.
도 7b는 본 발명의 실시 예에 따른 전자 장치의 사용자 입력 구분 기준을 조정하는 방법을 나타내는 순서도이다.
도 8은 본 발명의 실시 예에 따른 전자 장치의 구분된 터치 입력에 따른 다양한 기능 실행의 예시를 나타내는 도면이다.
도 2는 본 발명의 실시 예에 따른 터치 입력의 구분을 설명하기 위한 도면이다.
도 3a는 본 발명의 실시 예에 따른 일반 터치 입력을 설명하기 위한 도면이다.
도 3b는 본 발명의 실시 예에 따른 구분된 터치 입력을 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 전자 장치의 입력 처리 방법을 나타내는 순서도이다.
도 5는 본 발명의 실시 예에 따른 전자 장치의 사용자 입력 구분 기준을 결정하는 방법을 나타내는 순서도이다.
도 6은 본 발명의 실시 예에 따른 터치 스크린의 구분된 위치 별로 사용자 입력 구분 기준을 결정하는 예시를 나타내는 도면이다.
도 7a는 본 발명의 실시 예에 따른 사용자 입력 구분 오류를 설명하기 위한 도면이다.
도 7b는 본 발명의 실시 예에 따른 전자 장치의 사용자 입력 구분 기준을 조정하는 방법을 나타내는 순서도이다.
도 8은 본 발명의 실시 예에 따른 전자 장치의 구분된 터치 입력에 따른 다양한 기능 실행의 예시를 나타내는 도면이다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시 예에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시 예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시 예에서 사용된 "제 1, " "제2, " "첫째, "또는 "둘째, "등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 터치 스크린이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch))중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 터치 스크린을 포함하는 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSync™, 애플TV™, 또는 구글 TV™), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에 따르면, 전자 장치는 터치 스크린을 포함하는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 발명의 다양한 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시 예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시 예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 실시 예에 따른 전자 장치(100)를 개략적으로 나타내는 블록도이다.
도 1을 참조하면, 전자 장치(100)는 터치 스크린부(110), 저장부(120), 프로세서(130) 및 센서부(140) 중 적어도 하나를 포함할 수 있다. 이 외에도 키 입력부, 무선 통신부, 마이크 및 음성 출력부(미도시) 중 적어도 하나를 더 포함할 수 있다.
터치 스크린부(110)는 터치 패널과 디스플레이 패널을 포함할 수 있다.
터치 패널은 손에 의한 터치 입력을 감지하는 손 터치 패널과 펜에 의한 터치 입력을 감지하는 펜 터치 패널을 포함하여 구성된 복합 터치 패널일 수 있다. 여기서 손 터치 패널은 정전용량 방식(capacitive type)으로 구현될 수 있다. 물론 손 터치 패널은 저항막 방식(resistive type), 적외선 방식 또는 초음파 방식 등으로 구현될 수도 있다. 또한 손 터치 패널은 손 터치 입력에 의해서만 이벤트를 발생하는 것은 아니며, 다른 물체(예, 정전용량 변화를 가할 수 있는 전도성 재질의 물체)에 의해서도 이벤트를 생성할 수 있다. 펜 터치 패널은 전자 유도 방식(electromagnetic induction type)으로 구성될 수 있다. 이에 따라 펜 터치 패널은 자기장을 형성할 수 있도록 특수 제작된 터치용 펜에 의해 이벤트를 생성할 수 있다.
터치 패널은, 터치 입력 수단(예, 터치용 펜 촉이나 손가락 끝)이 터치 입력의 한 예시로 터치 스크린에 대한 물리적인 접촉 입력을 제공하면. 그 위치 및 면적 중 적어도 하나를 검출할 수 있다. 터치 입력은 일반적으로 터치한 위치의 객체(object)를 선택하거나 실행하는 경우에 사용될 수 있다. 그러나, 터치는 점이 아니라 넓이를 가진 영역으로 이루어진다. 따라서 발명의 다양한 실시 예에 따르면, 터치 패널은 터치 입력을 소정 면적을 가지는 도형(예컨대, 타원)으로 인식할 수 있다.
도 2를 참조하면, 터치 스크린부(110)의 터치 패널은 상기 도형의 소정 지점(예컨대, 중심점)(210)을 위치 정보를 파악하기 위한 좌표로 제공하고, 터치 입력의 면적에 상응하는 도형(220)의 속성과 관련한 추가적인 정보를 제공할 수 있다. 상기 추가적인 정보는 예컨대, 상기 도형의 전체, 일부 또는 상기 도형으로부터 파생되는 도형(예컨대, 외접하는 도형 등)과 관련한 길이(예컨대, 장/단축 길이), 넓이, 픽셀 수, 모양, 방향 또는 기울기(예컨대, 장축의 기울기) 중 적어도 하나를 포함할 수 있다.
아래에서 자세하게 검토하겠지만, 상기 도형 관련 위치 정보 및 추가적인 정보에 기반하여, 터치 입력은 저장되어 있는 사용자 입력 구분 기준에 의해 적어도 두 개의 다른 입력으로 판단될 수 있다. 도 3a 및 도 3b를 참조하면, 본 명세서에서는 터치 입력을 일반 터치 입력(예: narrow 입력)(310)과 구분된 터치 입력(예: wide 입력)(320)으로 구분하는 경우에 대해 설명하고 있으나 이에 한정되는 것은 아니고, 본 발명의 다양한 실시 예는 상기 터치 입력에 상응하는 도형 관련 위치 정보 및 추가적인 정보에 기반하여, 상기 터치 입력을 다양한 입력으로 구분하여 기능을 실행하는 기술에 폭넓게 적용될 수 있음을 당업자라면 잘 이해할 수 있을 것이다.
한편, 터치 패널은 터치 입력 수단이 상기 터치 스크린에서 소정 거리 이내, 예컨대 10cm 이내로 접근하면, 터치 입력 수단의 접근(proximity)을 검출할 수도 있다.
저장부(120)는, 프로세서(130) 또는 다른 구성 요소들로부터 수신되거나 생성된 명령 또는 데이터를 저장할 수 있다. 또한, 저장부(120)는 상기 프로세서(130)에 의해 실행되는 소프트웨어를 저장할 수 있다.
저장부(120)는 터치 입력 구분을 위한 상기 사용자 입력 구분 기준을 저장할 수 있다. 상기 사용자 입력 구분 기준 판단을 위하여, 평상시 사용자에 의해 제공된 터치 입력이 수집되어 저장부(120)에 저장될 수 있다. 혹은, 수집된 사용자의 평상시 터치 입력의 패턴의 저장부(120)에 저장될 수도 있다.
상기 사용자 입력 구분 기준은, 터치 입력의 면적에 상응하는 도형 또는 이로부터 파생된 도형의 전체 혹은 일부와 관련한 길이(예컨대, 장/단축 길이), 넓이, 픽셀 수, 모양, 방향 또는 기울기(예컨대, 장축의 기울기) 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중 적어도 하나를 기반으로 한 값일 수 있다. 상기 사용자 입력 구분 기준은, 예컨대 일반 터치 입력과 관련한 제 1 기준 값 및 구분된 터치 입력과 관련한 제 2 기준 값을 포함할 수 있다. 상기 제 1 및 제 2 기준 값에 대한 이상, 이하, 또는 근접 여부를 기반으로 터치 입력은 구분될 수 있다.
또한, 상기 사용자 입력 구분 기준은, 상기 터치 입력의 위치와 상관된 값일 수 있다. 상기 사용자 입력 구분 기준은, 구분되는 입력 중 특정 입력에 가중치가 부여되도록 설정될 수 있다 예컨대, 일반 터치 입력으로의 구분에 가중치 설정이 가능).
저장부(120)에 저장된 상기 사용자 입력 구분 기준은, 사용자의 사용에 따라 업데이트되며 조정될 수 있다.
프로세서(130)는 터치 패널을 통해 인식된 터치 입력을 기반으로 해당 입력에 대응하는 기능을 실행할 수 있다.
예컨대, 프로세서(130)는, 도 1을 참조하면, 터치 입력 인식부(131), 기능 실행부(133), 기준 결정부(135) 및 기준 조정부(137) 중 적어도 하나를 포함할 수 있다. 다만, 이는 프로세서(130)의 동작을 설명하기 위한 구성의 한 예시일 뿐이고 이에 한정되지는 않는다.
터치 입력 인식부(131)는 터치 패널을 통해 인식된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인할 수 있다. 그리고, 터치 입력 인식부(131)는 상기 사용자 입력 구분 기준에 기반하여 상기 속성 정보로부터 사용자 입력을 결정할 수 있다. 상기 도형의 속성 정보는 터치 입력 면적에 상응하는 도형 또는 이로부터 파생된 도형의 전체 혹은 일부와 관련한 길이(예컨대, 장/단축 길이), 넓이, 픽셀 수, 모양, 방향 또는 기울기(예컨대, 장축의 기울기) 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중 적어도 하나를 포함할 수 있다. 상기 사용자 입력은, 일반 터치 입력으로 결정될 수도 있고, 구분된 터치 입력으로 결정될 수도 있다.
한편, 터치 입력 인식부(131)는 사용자 입력 결정에 오류 발생 또는 오류 발생 확률을 감지할 수 있다. 예컨대, 터치 입력과 관련한 도형의 속성 정보 값이 상기 사용자 입력 구분 기준에 의해 구분되지 않는 애매한 영역에 속하는 경우, 오류 발생으로 감지하거나 오류 발생 확률이 높은 것으로 감지할 수 있다.
터치 입력 인식부(131)는 오류를 줄이기 위한 추가적인 수단으로 상기 속성 정보 값이 애매한 판단 영역에 속한 경우라면, 터치 입력 구분 판단을 유보하거나 이를 시각, 청각, 촉각 신호를 통해 사용자에게 알려 사용자 의도를 다시 한번 확인할 수 있다. 또는, 입력을 명확히 하기 위해 센서부(140)로 입력을 구분하는 옵션을 제시할 수도 있다.
예컨대, 터치 입력 인식부(131)는 명확한 사용자 입력 결정을 위해 아래와 같은 동작 중 적어도 하나를 수행할 수 있다. 예컨대, 터치 입력 인식부(131)는 터치 입력을 구분함에 있어 상기 사용자 입력 구분 기준에 근접도를 기준으로 사용자 입력을 결정할 수 있다. 또는, 터치 입력 인식부(131)는 사용자 입력에 대한 미리 설정된 우선 순위에 기반하여 사용자 입력을 결정할 수 있다. 터치 입력 인식부(131)는 사용자 입력을 구분하는 메뉴를 제공(예컨대, 터치 스크린부(110)를 통해 제공)하고 상기 메뉴에 대한 선택 입력을 감지하여 사용자 입력을 결정할 수 있다. 또는, 터치 입력 인식부(131)는 사용자 입력 구분을 위한 터치 입력 가이드를 제공(예컨대, 터치 스크린부(110)를 통해 제공)할 수 있다. 예컨대, "제 1 기능 실행을 위해 살짝 터치해 주세요" 또는 "제 2 기능 실행을 위해 넓게 터치해 주세요" 등의 가이드 문구를 화면을 통해 제공할 수 있다. 터치 입력 인식부(131)는 터치 패널, 마이크 또는 센서부(140) 중 적어도 하나를 통해 추가적인 입력 구분 동작을 감지하여 사용자 입력을 결정할 수도 있다. 또는, 터치 입력 인식부(131)는 사용자 입력 구분을 학습하기 위한 화면을 출력할 수도 있다.
기능 실행부(133)는, 터치 입력 인식부(131)에 의해 결정된 사용자 입력에 대응하는 기능을 실행할 수 있다.
예컨대, 기능 실행부(133)는 결정된 사용자 입력에 대응하는 사용자 UI(user interface)를 제공할 수 있다. 예컨대, 일반 터치 입력으로 결정된 경우에는 일반 터치 입력에 대응하는 기능을 실행하고, 구분된 터치 입력으로 결정된 경우에는 공통 제어 UI를 제공할 수 있다. 공통 제어 UI는 예컨대 현재 실행 중인 기능, 페이지, 앱(APP) 또는 선택된 오브젝트와 상관없이 공통적인 기능 제어를 위한 UI를 포함할 수 있다. 예컨대, 기능 실행부(133)는 연계되는 동작에 따라, 손이 닿지 않는 영역의 오브젝트의 선택과 실행을 위해 포인터(pointer)를 소환하게 하거나 공통으로 자주 쓰는 기능을 단축키로 설정하여 수행할 수 있다.
또는, 기능 실행부(133)는 결정된 사용자 입력에 기반하여, 상기 터치 입력과 관련된 오브젝트에 대응하는 기능을 실행할 수 있다. 예컨대, 이미지 오브젝트에 대한 일반 터치 입력이 수신된 경우에는 해당 이미지를 확대하여 화면을 통해 제공할 수 있고, 구분된 터치 입력이 수신된 경우에는 해당 이미지 오브젝트에 대한 부가 정보를 윈도우(window)를 통해 제공하는 등의 부가 동작을 수행할 수 있다. 앱 아이콘 객체를 예를 들어 설명하면, 일반 터치 입력은 앱 실행을 수행하지만 구분된 터치 입력은 앱의 설정을 변경하는 입력으로 사용할 수 있다. 객체에 부여하는 추가 입력은 필요에 따라 변경할 수 있다.
또는, 기능 실행부(133)는 사용자 별 터치 입력 패턴 정보를 수집하여 저장부(120)에 저장해둘 수 있고, 저장된 정보에 기반하여 사용자 별 제어를 수행할 수 있다. 기능 실행부(133)는 사용자의 터치 입력 시 얻을 수 있는 다양한 정보, 예컨대 일반 터치 입력 및 구분된 터치 입력의 면적에 상응하는 도형의 장/단축 최대/최소 값, 평균 값 편차 및 해당 값들의 연산 결과 등을 통계화할 수 있다. 이렇게 통계화된 정보는 단말의 사용자 수 및 사용자들의 특징을 파악할 수 있도록 지원해 주어, 사용자 마다 다른 UI를 제공해 주거나 사용자 맞춤 서비스를 제공해 줄 수 있고(예: 화면 App Icon 크기 변경 추천), 평소와 다른 패턴의 입력이 감지되면 추가로 인증을 요구하는 보안 강화의 수단으로 쓰일 수 있다.
예컨대, 기능 실행부(133)는 일반 터치 입력의 경우에는 사용자들에게 공통된 기능을 제공하되, 구분된 터치 입력의 경우에는 사용자 별 맞춤 UI를 제공할 수 있다. 사용자 별 맞춤 UI는 사용자 별 어플리케이션 등의 사용 빈도를 고려하여 결정될 수도 있고, 사용자 별 설정에 의해 결정될 수도 있다. 또는, 기능 실행부(133)는 일반 터치 입력의 경우에는 사용자들에게 공통된 기능을 제공하되, 구분된 터치 입력의 경우에는 사용자 별 인증을 요구함으로써 인증 성공 시 사용자 별 보안 기능을 실행할 수도 있다.
기준 결정부(135)는 터치 입력을 구분하기 위한 상기 사용자 입력 구분 기준을 결정할 수 있다.
예컨대, 기준 결정부(135)는 평상시 사용자가 제공하는 터치 입력을 수집하고, 수집된 터치 입력의 패턴으로부터 사용자 입력 구분 기준을 예측할 수 있다. 기준 결정부(135)는 평상시 사용자 터치 입력으로부터, 일반 터치 입력으로 결정되는 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하고,상기 수집된 정보에 기반하여 상기 사용자 입력 구분 기준을 결정할 수 있다. 그리고, 결정된 상기 사용자 입력 구분 기준을 저장부(120)에 저장할 수 있다.
또는, 기준 결정부(135)는 사용자 명령에 따라 사용자 입력 구분을 학습하기 위한 모드로 진입하여, 상기 사용자 입력 구분 기준을 결정할 수도 있다. 상기 학습 모드에서 상기 기준 결정부(135)는, 일반 터치 입력으로 결정되는 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하고, 구분된 터치 입력으로 결정되는 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집할 수 있다. 그리고, 기준 결정부(135)는 상기 수집된 정보들에 기반하여 상기 사용자 입력 구분 기준을 결정할 수 있고, 결정된 상기 사용자 입력 구분 기준을 저장부(120)에 저장할 수 있다.
아래는, 기준 결정부(135)가 터치 입력의 패턴을 수집하고 분석하여 상기 사용자 입력 구분 기준 값을 결정하는 한 예시이다.
사용자가 터치 스크린부(110)로 터치 입력을 제공하는 경우, 터치 패널은 터치 영역을 도 2의 220과 같이 2차원 도형으로 인식할 수 있다. 상기 도형의 속성을 구분하는 요소는 상기 도형 또는 상기 도형으로부터 파생된 도형의 일부 혹은 전체의 길이, 픽셀 개수, 모양, 넓이, 방향 또는 기울기 등 도형에서 도출되는 모든 정보 중 적어도 하나를 포함할 수 있다. 기준 결정부(135)는 상기 도형의 속성을 구분하는 요소 중 가장 구분 오류가 낮은 값을 이용하여 상기 사용자 입력 구분 기준을 결정할 수 있다. 그리고, 기준 결정부(135)는 구분된 터치 입력 중 특정 터치 입력에 가중치를 두어 상기 사용자 입력 구분을 결정할 수 있다.
터치 패널에 의해 제공되는 터치 입력의 면적에 상응하는 도형의 속성 정보는, 하드웨어의 기종에 따라 값이 다를 수 있고, 사용자의 손 크기 및 터치 습관에 따라 편차가 있을 수 있다. 그리고, 터치하는 위치에 따라 동일인이 터치하였을 때도 값이 다를 수 있다. 따라서, 기준 결정부(135)는 터치 스크린 화면을 소정 영역으로 구분하여, 상기 구분된 영역 별로 상기 사용자 입력 구분 기준을 다르게 적용할 수 있다. 예컨대, 기준 결정부(135)는 상기 구분된 영역 별로 터치 입력의 면적에 상응하는 도형 속성의 차이점을 도출할 수 있고, 상기 구분된 영역 별로 가장 구분 오류가 낮은 속성 정보를 이용하여 상기 사용자 입력 구분 기준을 결정할 수 있다.
한편, 터치 패널을 통해 감지되는 터치 입력의 면적은 시간에 따라 달라질 수 있는 값이기 때문에, 터치 입력의 면적을 판단하는 시점 관련 기준 또한 결정할 필요가 있다. 기준 결정부(135)는 입력의 안정성을 위해 일정 시간 동안의 도형 속성 정보를 수집하여 기준에 따라 입력 구분을 결정할 수도 있고, 빠른 반응 속도를 위해 도형 또는 상기 도형으로부터 파생된 도형의 일부 혹은 전체 속성의 최대, 최소, 평균, 편차, 변화량 또는 분포 등의 값이 기준을 만족하자 마자 입력 구분을 결정할 수 있다. 예컨대, 기준 결정부(135)는 터치 입력에 대한 판단 시점을, 도형의 속성 정보의 평균이 사용자 입력 구분 기준 값을 만족하는 경우로 설정하거나, 도형의 속성 정보가 사용자 입력 구분 기준 값을 넘는 경우로 설정할 수 있다. 이외에도, 기준 결정부(135)는 다양한 기준으로 터치 입력에 대한 판단 시점을 설정할 수 있다.
도 2를 참조하면, 기준 결정부(135)는 예컨대, 터치 인식 도형의 장축 길이(touch major)와 단축 길이(touch minor) 정보를 활용하여, 터치 입력을 좁은(narrow) 터치(예컨대, 일반 터치 입력)와 넓은(wide) 터치(예컨대, 구분된 터치 입력)로 구분하는 사용자 입력 구분 기준을 결정할 수 있다. 터치 면적은 손 크기 및 터치 습관의 영향 외에도, 손가락을 이용하여 멀리 터치할수록 터치면적이 넓어지고 가깝게 터치할수록 터치면적이 좁아질 뿐 아니라 터치 면적의 편차가 커질 수 있다. 즉, 먼 부분을 터치하였을 경우는 장/단축 길이의 편차가 작아 좁은 터치와 넓은 터치가 구분되지 않을 수 있다. 따라서, 기준 결정부(135)는 예컨대 화면의 중앙 영역에 대한 터치 입력을 수집하고 분석에 포함시킬 수 있다. 기준 결정부(135)는 수집된 장/단축 길이의 최대/최소 값, 평균 값, 편차, 분포 및 터치 기간을 연산하여 넓은 터치와 좁은 터치의 기준을 설정할 수 있다. 이때, 사용자가 평상 시 제공하는 터치 입력 면적의 패턴, 및 넓은 터치/좁은 터치 시 터치 입력 면적 패턴과의 상관관계를 고려하여 설정할 수 있다.
한 예로, 사용자 입력 구분 기준 값(Threshold)는 아래와 같이 계산될 수 있다.
Threshold = (1.5*MAX - 0.5*AVG)*0.8+7
(MAX: 수집정보 중 장축 길이의 최대값, AVG: 수집정보의 장축 길의 평균 값)
상기 예시에 따르면, 터치 입력 인식부(131)는 장축 길이가 Threshold 이상인지 이하인지에 따라 넓은 터치 또는 좁은 터치로 구분할 수 있다.
한편, 기준 결정부(135)는 상기 Threshold 값을 터치 위치(좌표)에 의존적으로 결정함으로써, 터치 입력 구분 인식률을 높일 수 있다.
다른 예로, 사용자 입력 구분 기준 값(Threshold)는 아래와 같이 계산될 수 있다.
Threshold = MAX+ 17 - 20 * SQRT(Touch_Duration)
즉, 기준 결정부(135)는 터치 기간 정보(Touch_Duration)를 더 활용하여 Threshold 값을 결정할 수 있다.
기준 조정부(137)는 상기 결정된 사용자 입력 구분 기준을 조정할 수 있다. 터치 입력 인식부(131)가 터치 입력의 면적에 상응하는 도형의 속성 정보로부터 입력을 구분하는 데에 있어, 상기 결정된 사용자 입력 구분 기준 값으로부터 판단이 애매한 경우가 있을 수 있다. 따라서, 기준 결정부(135)가 사용자 입력 구분 기준 값을 결정한 경우라도, 계속된 사용자의 사용 패턴에 맞춰 상기 결정된 사용자 입력 구분 기준 값의 업데이트가 필요할 수 있다. 예컨대, 기준 조정부(137)는 터치 입력 인식부(131)에서 터치 입력 구분에 대한 오류 발생 또는 오류 발생 확률이 소정 값 이상임을 감지하는 경우, 오류 확률을 줄이는 방향으로 상기 결정된 사용자 입력 구분 기준을 조정할 수 있다. 예컨대, 상기 사용자 입력 구분 기준 값에 근접한 영역에 터치가 빈번하게 이루어지는 경우 상기 사용자 입력 구분 기준 값을 증가 또는 감소 시킬 수 있다.
도 4는 본 발명의 실시 예에 따른 전자 장치(예: 100)의 입력 처리 방법을 나타내는 순서도이다. 예컨대, 도 4에 도시된 입력 처리 방법은 도 1의 프로세서(130)에 의해 수행될 수 있다.
프로세서는 410 단계에서 터치 패널을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인할 수 있다.
프로세서는 420 단계에서 저장된 사용자 입력 구분 기준에 기반하여, 상기 속성 정보로부터 사용자 입력을 결정할 수 있다. 상기 도형의 속성 정보는 상기 도형 또는 상기 도형으로부터 파생된 도형의 전체 혹은 일부와 관련한 길이(예컨대, 장/단축 길이), 넓이, 픽셀 수, 모양, 방향 또는 기울기(예컨대, 장축의 기울기) 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중 적어도 하나를 포함할 수 있다.
프로세서는 430 단계에서 상기 420 단계에서의 사용자 입력 구분이 분명한지 여부를 확인할 수 있다.
만약, 구분이 분명하지 않은 경우라면, 프로세서는 440 단계에서 추가적인 입력 구분 절차를 수행할 수 있다. 예컨대, 프로세서는 터치 입력을 구분함에 있어 상기 사용자 입력 구분 기준에 근접도를 기준으로 사용자 입력을 결정할 수 있다. 프로세서는 사용자 입력에 대한 미리 설정된 우선 순위에 기반하여 사용자 입력을 결정할 수 있다. 프로세서는 사용자 입력을 구분하는 메뉴를 제공하고 상기 메뉴에 대한 선택 입력을 감지하여 사용자 입력을 결정할 수 있다. 프로세서는 사용자 입력 구분을 위한 터치 입력 가이드를 제공할 수 있다. 프로세서는 터치 패널, 마이크 또는 센서부 중 적어도 하나를 통해 추가적인 입력 구분 동작을 감지하여 사용자 입력을 결정할 수도 있다. 또는, 프로세서는 사용자 입력 구분을 학습하기 위한 화면을 출력할 수도 있다.
사용자 입력이 결정되면, 프로세서는 450 단계에서 결정된 사용자 입력에 대응하는 기능을 실행할 수 있다. 예컨대, 제 1 사용자 입력으로 결정된 경우에는 제 1 기능을 실행하고, 제 2 사용자 입력으로 결정된 경우에는 제 2 기능을 실행할 수 있다.
도 5는 본 발명의 실시 예에 따른 전자 장치(예: 100)의 사용자 입력 구분 기준을 결정하는 방법을 나타내는 순서도이다. 예컨대, 도 5에 도시된 사용자 입력 구분 기준 결정 방법은 도 1의 프로세서(130)에 의해 수행될 수 있다.
프로세서는 평상시 사용자가 제공하는 터치 입력을 수집하고 수집된 터치 입력의 패턴으로부터 사용자 입력 구분 기준을 결정할 수도 있고, 사용자 명령에 따라 사용자 입력 구분을 학습하기 위한 모드로 진입하여 상기 사용자 입력 구분 기준을 결정할 수도 있다. 본 발명의 다양한 실시 예에 따르면, 프로세서는 아래의 510 단계 및 520 단계 중 적어도 하나의 단계에서 수집된 속성 정보에 기반하여 상기 사용자 입력 구분을 결정할 수 있다.
프로세서는 510 단계에서 제 1 사용자 입력으로 결정된 터치 입력 면적에 상응하는 도형의 속성 정보를 수집할 수 있다. 예컨대, 프로세서는 상기 평상 시 사용자의 사용으로부터 일반 터치 입력에 상응하는 속성 정보를 수집할 수 있다. 그리고, 프로세서는 530 단계에서 상기 속성 정보에 기반하여 구분 터치 입력과의 구별을 위한 상기 사용자 입력 구분 기준을 예측할 수 있다.
또는, 프로세서는 상기 학습 모드에서 일반 터치 입력을 수신하여 제 1 사용자 입력에 상응하는 도형의 속성 정보를 수집할 수 있다.
프로세서는 520 단계에서 제 2 사용자 입력으로 결정된 터치 입력 면적에 상응하는 도형의 속성 정보를 수집할 수 있다. 예컨대, 프로세서는 상기 학습 모드에서 구분된 터치 입력을 수신하여 제 2 사용자 입력에 상응하는 도형의 속성 정보를 수집할 수 있다
프로세서는 530 단계에서 상기 수집된 속성 정보들에 기반하여 사용자 입력 구분 기준을 결정할 수 있다. 예컨대, 프로세서는 상기 학습 모드에서 수집된 상기 제 1 및 제 2 사용자 입력에 상응하는 도형의 속성 정보들에 기반하여 상기 사용자 입력 구분 기준을 결정할 수 있다.
상기 도형의 속성 정보는 상기 도형 또는 상기 도형으로부터 파생된 도형의 일부 혹은 전체의 길이, 픽셀 개수, 모양, 넓이, 방향 또는 기울기 등 도형에서 도출되는 모든 정보 중 적어도 하나를 포함할 수 있다. 프로세서는 상기 속성 정보 중 가장 구분 오류가 낮은 값을 이용하여 상기 사용자 입력 구분 기준을 결정할 수 있다. 그리고, 프로세서는 구분된 터치 입력 중 특정 터치 입력에 가중치를 두어 상기 사용자 입력 구분을 결정할 수 있다.
또한 도 6을 참조하면, 프로세서는 터치 스크린(110)의 화면을 소정 영역으로 구분(600)하여, 상기 구분된 영역 별로 상기 사용자 입력 구분 기준을 다르게 적용할 수 있다. 프로세서는 상기 구분된 영역 별로 터치 입력의 면적에 상응하는 도형 속성의 차이점을 도출할 수 있고, 상기 구분된 영역 별로 가장 구분 오류가 낮은 속성 정보를 이용하여 상기 사용자 입력 구분 기준을 결정할 수 있다. 예컨대, 프로세서는 제 1 사용자 입력과 관련한 기준 값에 대해서는 구분된 영역 별로 610과 같이 설정할 수 있고, 제 2 사용자 입력과 관련한 기준 값에 대해서는 구분된 영역 별로 620과 같이 설정할 수 있다.
프로세서는 입력의 안정성을 위해 일정 시간 동안의 도형 속성 정보를 수집하여 기준에 따라 입력 구분을 결정할 수도 있고, 빠른 반응 속도를 위해 도형 일부 혹은 전체 속성의 최대, 최소, 평균, 편차, 변화량 또는 분포 등의 값이 기준을 만족하자 마자 입력 구분을 결정할 수 있다. 예컨대, 프로세서는 터치 입력에 대한 판단 시점을, 도형의 속성 정보의 평균이 사용자 입력 구분 기준 값을 만족하는 경우로 설정하거나, 도형의 속성 정보가 사용자 입력 구분 기준 값을 넘는 경우로 설정할 수 있다.
도 7a는 본 발명의 실시 예에 따른 사용자 입력 구분 오류를 설명하기 위한 도면이다.
예컨대 도 7a를 참조하면, 터치 입력의 면적에 상응하는 도형의 장축과 단축의 길이를 기준으로 하여 터치 입력을 제 1 사용자 입력(예컨대, 일반 터치 입력)과 제 2 사용자 입력(예컨대, 구분된 터치 입력)을 구분할 수 있다. 그러나, 구분이 모호한 영역(700)의 값을 갖는 터치 입력이 감지된 경우, 해당 터치 입력에 대한 구분에 오류가 발생하거나, 오류 발생 확률이 소정 값 이상일 수 있다.
이 경우 전자 장치는 도 4의 440 단계에서 설명한 추가적인 입력 구분 절차를 수행할 수도 있고, 또는 상기 사용자 입력 구분 기준을 조정할 수도 있다.
도 7b는 본 발명의 실시 예에 따른 전자 장치(예: 100)의 사용자 입력 구분 기준을 조정하는 방법을 나타내는 순서도이다. 예컨대, 도 7b에 도시된 사용자 입력 구분 기준 결정 방법은 도 1의 프로세서(130)에 의해 수행될 수 있다.
프로세서는 710 단계에서 사용자 입력 구분 오류 발생 여부 또는 오류 발생 확률이 소정 값 이상인지 여부를 확인할 수 있다. 이를 오류 발생 관련 확인을 수행하는 것으로 설명하도록 한다. 예컨대, 프로세서는 오류 발생 또는 오류 발생 확률이 소정 값 이상임을 확인한 경우 앞서 설명한 추가적인 입력 구분 절차를 수행할 수 있다. 또한, 프로세서는, 구분이 모호한 영역(700) 중 소정 범위의 값의 터치 입력에 의한 오류 발생이 임계 치 이상 발생했는지 여부를 판단할 수도 있다.
프로세서는 720 단계에서 사용자 입력 구분 기준을 조정할 수 있다. 예컨대, 프로세서는 오류 확률을 줄이는 방향으로 사용자 입력 구분 기준 값을 상기 소정 범위에 근접하게 증가 또는 감소시킬 수 있다.
도 8은 본 발명의 실시 예에 따른 전자 장치(예: 100)의 구분된 터치 입력에 따른 다양한 기능 실행의 예시를 나타내는 도면이다. 예컨대, 도 8에 도시된 사용자 입력 구분 기준 결정 방법은 도 1의 프로세서(130)에 의해 수행될 수 있다. 구분된 터치 입력이란 일반 터치 입력과 구분된 터치 입력을 일컫는 것으로, 그 예시로써 앞서 명세서에서 설명한 제 1 사용자 입력과 구분되는 제 2 사용자 입력, 또는 좁은(narrow) 터치 입력과 구분되는 넓은(wide) 터치 입력을 포함할 수 있다.
프로세서는 감지된 터치 입력이 구분된 터치 입력으로 결정된 경우라면(810), 이에 대응하는 기능을 수행할 수 있다.
한 예로, 구분된 터치 입력에 응답하여 프로세서는, 현재 실행 중인 기능, 페이지, 앱(APP) 또는 선택된 오브젝트와 상관없이 공통적인 제어(820)를 수행할 수 있다. 예컨대, 프로세서는 공통된 제어 UI를 제공(830)할 수 있다. 공통 제어 UI는 예컨대 현재 실행 중인 기능, 페이지, 앱(APP) 또는 선택된 오브젝트와 상관없이 공통적인 기능 제어를 위한 UI를 포함할 수 있다. 예컨대, 프로세서는 연계되는 동작에 따라, 손이 닿지 않는 영역의 오브젝트의 선택과 실행을 위해 포인터(pointer)를 소환하게 하거나 공통으로 자주 쓰는 기능을 단축키로 설정하여 수행할 수 있다.
다른 예로, 구분된 터치 입력에 응답하여 프로세서는, 터치 객체(오브젝트) 별 제어(840)를 수행할 수 있다. 예컨대, 프로세서는 터치 입력과 관련된 오브젝트에 상응하는 기능을 실행(850)할 수 있다. 앱 아이콘 객체를 예를 들어 설명하면, 일반 터치 입력은 앱 실행을 수행하지만 구분된 터치 입력은 앱의 설정을 변경하는 입력으로 사용할 수 있다. 객체에 부여하는 추가 입력은 필요에 따라 변경할 수 있다.
또 다른 예로, 구분된 터치 입력에 응답하여 프로세서는, 사용자 별 제어(960)를 수행할 수 있다. 프로세서는 사용자의 터치 입력 시 얻을 수 있는 다양한 정보, 예컨대 일반 터치 입력 및 구분된 터치 입력의 면적에 상응하는 도형의 장/단축 최대/최소 값, 평균 값 편차 및 해당 값들의 연산 결과 등을 통계화할 수 있다. 이렇게 통계화된 정보는 단말의 사용자 수 및 사용자들의 특징을 파악할 수 있도록 지원해 주어, 사용자 마다 다른 UI를 제공(870)해 주거나 사용자 맞춤 서비스를 제공해 줄 수 있고(예: 화면 App Icon 크기 변경 추천), 평소와 다른 패턴의 입력이 감지되면 추가로 인증을 요구하는 사용자 별 보안 기능을 실행(880)할 수도 있다. 예컨대, 프로세서는 일반 터치 입력의 경우에는 사용자들에게 공통된 기능을 제공하되, 구분된 터치 입력의 경우에는 사용자 별 맞춤 UI를 제공할 수 있다. 사용자 별 맞춤 UI는 사용자 별 어플리케이션 등의 사용 빈도를 고려하여 결정될 수도 있고, 사용자 별 설정에 의해 결정될 수도 있다. 또는, 프로세서는 일반 터치 입력의 경우에는 사용자들에게 공통된 기능을 제공하되, 구분된 터치 입력의 경우에는 사용자 별 인증을 요구함으로써 인증 성공 시 사용자 별 보안 기능을 실행할 수도 있다.
다양한 실시 예에 따르면, 본 발명의 다양한 실시 예에 따른 장치(예: 유닛, 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(130))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 저장부(120)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서(130)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시 예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시 예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시 예들은 본 발명의 실시 예에 따른 의 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시 예의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.
Claims (20)
- 터치 스크린을 포함하는 전자 장치의 입력 처리 방법에 있어서,
상기 터치 스크린을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인하는 단계;
저장된 사용자 입력 구분 기준에 기반하여, 상기 속성 정보로부터 사용자 입력을 결정하는 단계; 및
상기 결정된 사용자 입력에 대응하는 기능을 실행하는 단계를 포함하는 전자 장치의 입력 처리 방법. - 제 1 항에 있어서,
상기 도형의 속성 정보는,
상기 도형 또는 상기 도형으로부터 파생된 도형의 전체 혹은 일부와 관련한 길이, 넓이, 픽셀 수, 모양, 방향 또는 기울기 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중에서 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 1 항에 있어서,
상기 사용자 입력 구분 기준을 결정하는 단계를 더 포함하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 3 항에 있어서,
상기 사용자 입력 구분 기준을 결정하는 단계는,
제 1 사용자 입력으로 결정된 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하는 단계; 또는
제 2 사용자 입력으로 결정된 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하는 단계 중 적어도 하나를 포함하고,
상기 수집된 적어도 하나의 정보에 기반하여 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 4 항에 있어서,
상기 수집된 적어도 하나의 정보에 기반하여 상기 사용자 입력 구분 기준을 결정하는 단계는,
도형의 전체 혹은 일부와 관련한 길이, 넓이, 픽셀 수, 모양, 방향 또는 기울기 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중에서, 구분 오류의 발생이 낮은 적어도 하나의 값을 기반으로 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 4 항에 있어서,
상기 수집된 적어도 하나의 정보에 기반하여 상기 사용자 입력 구분 기준을 결정하는 단계는,
상기 제 1 및 제 2 사용자 입력 중 특정 입력에 가중치를 부여하여 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 4 항에 있어서,
상기 수집된 적어도 하나의 정보에 기반하여 사용자 입력 구분 기준을 결정하는 단계는,
상기 터치 스크린 상 구분된 위치 별로 상기 사용자 입력 구분 기준을 다르게 결정하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 2 항에 있어서,
상기 사용자 입력 결정에 대한 오류 발생 또는 오류 발생 확률이 소정 값 이상임이 감지되는 경우, 상기 결정된 사용자 입력 구분 기준을 조정하는 단계를 더 포함하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 1 항에 있어서,
상기 사용자 입력 결정 시 오류 발생 또는 오류 발생 확률이 소정 값 이상임이 감지되는 경우,
미리 결정된 우선 순위에 기반하여 상기 사용자 입력을 결정하는 단계;
상기 사용자 입력을 구분하는 메뉴를 제공하고 상기 메뉴에 대한 입력을 감지하여 상기 사용자 입력을 결정하는 단계;
터치 입력에 대한 가이드를 출력하는 단계; 또는
추가적인 입력 구분 동작을 감지하여 상기 사용자 입력을 결정하는 단계 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 제 1 항에 있어서,
상기 결정된 사용자 입력에 대응하는 기능을 실행하는 단계는,
상기 결정된 사용자 입력에 대응하는 사용자 UI(user interface)를 제공하는 단계;
상기 결정된 사용자 입력에 기반하여, 상기 터치 입력과 관련된 그래피컬(graphical) 오브젝트에 대응하는 기능을 실행하는 단계; 또는
사용자 별로 수집된 데이터에 기반하여, 상기 결정된 사용자 입력에 대응하는 사용자 별 UI 제공 또는 사용자 별 보안 기능 실행 중 적어도 하나를 수행하는 단계; 중 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치의 입력 처리 방법. - 전자 장치에 있어서,
터치 입력을 감지하는 터치 스크린;
사용자 입력 구분 기준을 저장하는 저장부; 및
상기 터치 스크린을 통해 감지된 터치 입력의 면적에 상응하는 도형의 속성 정보를 확인하고, 상기 저장된 사용자 입력 구분 기준에 기반하여 상기 속성 정보로부터 사용자 입력을 결정하며, 상기 결정된 사용자 입력에 대응하는 기능을 실행하도록 제어하는 적어도 하나의 프로세서를 포함하는 전자 장치. - 제 11 항에 있어서,
상기 도형의 속성 정보는,
상기 도형 또는 상기 도형으로부터 파생된 도형의 전체 혹은 일부와 관련한 길이, 넓이, 픽셀 수, 모양, 방향 또는 기울기 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중에서 적어도 하나를 포함하는 것을 특징으로 하는 전자 장치. - 제 11 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치. - 제 13 항에 있어서,
상기 적어도 하나의 프로세서는,
제 1 사용자 입력으로 결정된 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하는 동작, 또는
제 2 사용자 입력으로 결정된 터치 입력의 면적에 상응하는 도형의 속성 정보를 수집하는 동작 중 적어도 하나를 수행하고,
상기 수집된 적어도 하나의 정보에 기반하여 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치. - 제 14 항에 있어서,
상기 적어도 하나의 프로세서는,
도형의 전체 혹은 일부와 관련한 길이, 넓이, 픽셀 수, 모양, 방향 또는 기울기 중 적어도 하나에 대한 최대, 최소, 평균, 편차 또는 분포 값 중에서, 구분 오류의 발생이 낮은 적어도 하나의 값을 기반으로 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치. - 제 14 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 제 1 및 제 2 사용자 입력 중 특정 입력에 가중치를 부여하여 상기 사용자 입력 구분 기준을 결정하는 것을 특징으로 하는 전자 장치. - 제 14 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 터치 스크린 상 구분된 위치 별로 상기 사용자 입력 구분 기준을 다르게 결정하는 것을 특징으로 하는 전자 장치. - 제 12 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 사용자 입력 결정에 대한 오류 발생 또는 오류 발생 확률이 소정 값 이상임이 감지되는 경우, 상기 결정된 사용자 입력 구분 기준을 조정하는 것을 특징으로 하는 전자 장치. - 제 11 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 사용자 입력 결정 시 오류 발생 또는 오류 발생 확률이 소정 값 이상임이 감지되는 경우,
미리 결정된 우선 순위에 기반하여 상기 사용자 입력을 결정하는 동작;
상기 사용자 입력을 구분하는 메뉴를 제공하고 상기 메뉴에 대한 입력을 감지하여 상기 사용자 입력을 결정하는 동작;
터치 입력에 대한 가이드를 출력하는 동작; 또는
추가적인 입력 구분 동작을 감지하여 상기 사용자 입력을 결정하는 동작; 중 적어도 하나를 제어하는 것을 특징으로 하는 전자 장치. - 제 11 항에 있어서,
상기 적어도 하나의 프로세서는,
상기 결정된 사용자 입력에 대응하는 사용자 UI(user interface)를 제공하는 동작;
상기 결정된 사용자 입력에 기반하여, 상기 터치 입력과 관련된 그래피컬(graphical) 오브젝트에 대응하는 기능을 실행하는 동작; 또는
사용자 별로 수집된 데이터에 기반하여, 상기 결정된 사용자 입력에 대응하는 사용자 별 UI 제공 또는 사용자 별 보안 기능 실행 중 적어도 하나를 수행하는 동작; 중 적어도 하나를 제어하는 것을 특징으로 하는 전자 장치.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160060678A KR102334521B1 (ko) | 2016-05-18 | 2016-05-18 | 전자 장치 및 이의 입력 처리 방법 |
CN201780030523.2A CN109154879B (zh) | 2016-05-18 | 2017-05-12 | 电子设备及其输入处理方法 |
PCT/KR2017/004935 WO2017200238A1 (en) | 2016-05-18 | 2017-05-12 | Electronic device and input processing method thereof |
EP17799596.6A EP3427139B1 (en) | 2016-05-18 | 2017-05-12 | Electronic device and input processing method thereof |
US15/598,576 US11126300B2 (en) | 2016-05-18 | 2017-05-18 | Electronic device and input processing method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160060678A KR102334521B1 (ko) | 2016-05-18 | 2016-05-18 | 전자 장치 및 이의 입력 처리 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20170130090A true KR20170130090A (ko) | 2017-11-28 |
KR102334521B1 KR102334521B1 (ko) | 2021-12-03 |
Family
ID=60326027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160060678A KR102334521B1 (ko) | 2016-05-18 | 2016-05-18 | 전자 장치 및 이의 입력 처리 방법 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11126300B2 (ko) |
EP (1) | EP3427139B1 (ko) |
KR (1) | KR102334521B1 (ko) |
CN (1) | CN109154879B (ko) |
WO (1) | WO2017200238A1 (ko) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109213413A (zh) * | 2017-07-07 | 2019-01-15 | 阿里巴巴集团控股有限公司 | 一种推荐方法、装置、设备和存储介质 |
CN109218517B (zh) * | 2018-07-13 | 2020-09-01 | 维沃移动通信有限公司 | 一种应用属性的设置方法、移动终端 |
EP3985338B1 (en) * | 2019-06-13 | 2024-01-17 | Hefei Midea Refrigerator Co., Ltd. | Refrigerator calibration method and system, and refrigerator |
CN110727372B (zh) * | 2019-09-29 | 2023-04-07 | RealMe重庆移动通信有限公司 | 防误触方法、终端及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040204129A1 (en) * | 2002-08-14 | 2004-10-14 | Payne David M. | Touch-sensitive user interface |
KR20100059698A (ko) * | 2008-11-25 | 2010-06-04 | 삼성전자주식회사 | 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체 |
US20150091841A1 (en) * | 2013-09-30 | 2015-04-02 | Kobo Incorporated | Multi-part gesture for operating an electronic personal display |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
CN1685301B (zh) | 2002-09-30 | 2010-05-26 | 三洋电机株式会社 | 移动数字装置 |
US20110012856A1 (en) * | 2008-03-05 | 2011-01-20 | Rpo Pty. Limited | Methods for Operation of a Touch Input Device |
US9552154B2 (en) | 2008-11-25 | 2017-01-24 | Samsung Electronics Co., Ltd. | Device and method for providing a user interface |
CN101458591A (zh) * | 2008-12-09 | 2009-06-17 | 三星电子(中国)研发中心 | 一种具有多点触摸屏硬件结构的手机输入系统 |
JP5141984B2 (ja) * | 2009-05-11 | 2013-02-13 | ソニー株式会社 | 情報処理装置および方法 |
GB2486843B (en) * | 2009-08-25 | 2014-06-18 | Promethean Ltd | Interactive surface with a plurality of input detection technologies |
US9274654B2 (en) * | 2009-10-27 | 2016-03-01 | Perceptive Pixel, Inc. | Projected capacitive touch sensing |
CN101882042B (zh) * | 2010-06-08 | 2011-10-12 | 苏州瀚瑞微电子有限公司 | 电容式触摸屏手掌判别方法 |
CN102566827A (zh) * | 2010-12-30 | 2012-07-11 | 株式会社理光 | 虚拟触摸屏系统中对象检测方法和系统 |
US9582187B2 (en) * | 2011-07-14 | 2017-02-28 | Microsoft Technology Licensing, Llc | Dynamic context based menus |
US8750852B2 (en) * | 2011-10-27 | 2014-06-10 | Qualcomm Incorporated | Controlling access to a mobile device |
KR101880653B1 (ko) * | 2011-10-27 | 2018-08-20 | 삼성전자 주식회사 | 터치패널을 구비하는 휴대단말기의 입력 판정 장치 및 방법 |
CN103186750B (zh) * | 2011-12-28 | 2017-04-12 | 富泰华工业(深圳)有限公司 | 可防盗的触摸型便携式装置及防盗方法 |
US9304622B2 (en) * | 2012-06-29 | 2016-04-05 | Parade Technologies, Ltd. | Touch orientation calculation |
KR102110183B1 (ko) * | 2013-08-19 | 2020-05-14 | 삼성디스플레이 주식회사 | 터치 입력 장치의 감도 보정 방법 및 이를 채용한 터치 입력 장치 |
KR102200823B1 (ko) * | 2013-09-10 | 2021-01-11 | 삼성전자 주식회사 | 전자 장치의 입력 방법 및 시스템 |
KR102140290B1 (ko) * | 2013-12-03 | 2020-07-31 | 삼성전자주식회사 | 입력 처리 방법 및 그 전자 장치 |
KR101572331B1 (ko) * | 2013-12-26 | 2015-11-30 | (주)멜파스 | 터치스크린패널을 이용하여 근접 센싱 기능을 제공하는 터치 센싱 시스템 및 방법 |
CN105242840B (zh) * | 2014-06-30 | 2019-11-26 | 联想(北京)有限公司 | 一种信息处理方法及一种电子设备 |
KR102250780B1 (ko) | 2014-10-20 | 2021-05-11 | 삼성전자주식회사 | 보안을 제어하기 위한 방법 및 그 전자 장치 |
US10152162B1 (en) * | 2015-05-15 | 2018-12-11 | Apple Inc. | Method of optimizing touch detection |
US9927974B2 (en) * | 2015-09-22 | 2018-03-27 | Qualcomm Incorporated | Automatic customization of keypad key appearance |
US10180755B2 (en) * | 2016-02-29 | 2019-01-15 | Apple Inc. | Electronic device with dynamic thresholding for force detection |
CN105760749B (zh) * | 2016-03-01 | 2017-11-14 | 广东欧珀移动通信有限公司 | 一种数据处理方法和终端 |
US20180046319A1 (en) * | 2016-08-10 | 2018-02-15 | Lenovo (Singapore) Pte. Ltd. | Method to adjust thresholds adaptively via analysis of user's typing |
-
2016
- 2016-05-18 KR KR1020160060678A patent/KR102334521B1/ko active IP Right Grant
-
2017
- 2017-05-12 CN CN201780030523.2A patent/CN109154879B/zh active Active
- 2017-05-12 WO PCT/KR2017/004935 patent/WO2017200238A1/en active Application Filing
- 2017-05-12 EP EP17799596.6A patent/EP3427139B1/en active Active
- 2017-05-18 US US15/598,576 patent/US11126300B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040204129A1 (en) * | 2002-08-14 | 2004-10-14 | Payne David M. | Touch-sensitive user interface |
KR20100059698A (ko) * | 2008-11-25 | 2010-06-04 | 삼성전자주식회사 | 유저인터페이스 제공 장치, 제공방법, 및 이를 기록한 컴퓨터 판독 가능한 기록매체 |
US20150091841A1 (en) * | 2013-09-30 | 2015-04-02 | Kobo Incorporated | Multi-part gesture for operating an electronic personal display |
Also Published As
Publication number | Publication date |
---|---|
KR102334521B1 (ko) | 2021-12-03 |
WO2017200238A1 (en) | 2017-11-23 |
CN109154879A (zh) | 2019-01-04 |
EP3427139A4 (en) | 2019-04-10 |
US11126300B2 (en) | 2021-09-21 |
US20170336916A1 (en) | 2017-11-23 |
EP3427139B1 (en) | 2023-12-27 |
CN109154879B (zh) | 2022-09-27 |
EP3427139A1 (en) | 2019-01-16 |
EP3427139C0 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3191922B1 (en) | Classification of touch input as being unintended or intended | |
US20180024643A1 (en) | Gesture Based Interface System and Method | |
US9547391B2 (en) | Method for processing input and electronic device thereof | |
US9261995B2 (en) | Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point | |
US20130300704A1 (en) | Information input device and information input method | |
CN109154879B (zh) | 电子设备及其输入处理方法 | |
KR20160088631A (ko) | 화면 제어 방법 및 그 방법을 처리하는 전자 장치 | |
US20150160731A1 (en) | Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium | |
KR20160050682A (ko) | 전자장치의 화면 표시 제어 방법 및 장치 | |
US20140337720A1 (en) | Apparatus and method of executing function related to user input on screen | |
KR20150087638A (ko) | 전자 장치에서 입력을 획득하기 위한 방법, 전자 장치 및 저장 매체 | |
KR20150145583A (ko) | 디스플레이를 제어하는 전자 장치 및 방법 | |
KR20150121949A (ko) | 제스처를 인식하는 방법 및 장치 | |
EP2693313A2 (en) | Electronic pen input recognition apparatus and method using capacitive-type touch screen panel (tsp) | |
KR20150039552A (ko) | 전자 장치의 디스플레이 조작 방법 및 그 전자 장치 | |
EP2677413B1 (en) | Method for improving touch recognition and electronic device thereof | |
US20160357301A1 (en) | Method and system for performing an action based on number of hover events | |
US20200142582A1 (en) | Disambiguating gesture input types using multiple heatmaps | |
KR20150027885A (ko) | 전자 필기 운용 방법 및 이를 지원하는 전자 장치 | |
KR20160035865A (ko) | 오브젝트를 식별하는 전자 장치 및 방법 | |
CN105579945A (zh) | 数字设备及其控制方法 | |
US8988369B1 (en) | Restricted carousel with built-in gesture customization | |
KR20160098700A (ko) | 멀티 터치 입력을 처리하기 위한 전자 장치 및 그 동작 방법 | |
KR20160024505A (ko) | 전자 장치 및 이의 입력 방법 | |
KR20160018305A (ko) | 전자 장치 및 전자 장치에서 문자 입력을 처리하는 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |