KR20140083300A - 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치 - Google Patents

원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치 Download PDF

Info

Publication number
KR20140083300A
KR20140083300A KR1020120152885A KR20120152885A KR20140083300A KR 20140083300 A KR20140083300 A KR 20140083300A KR 1020120152885 A KR1020120152885 A KR 1020120152885A KR 20120152885 A KR20120152885 A KR 20120152885A KR 20140083300 A KR20140083300 A KR 20140083300A
Authority
KR
South Korea
Prior art keywords
touch
force
point
contact
detected
Prior art date
Application number
KR1020120152885A
Other languages
English (en)
Other versions
KR101436585B1 (ko
Inventor
김건년
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020120152885A priority Critical patent/KR101436585B1/ko
Priority to PCT/KR2013/012136 priority patent/WO2014104726A1/ko
Priority to US14/655,473 priority patent/US20150355769A1/en
Publication of KR20140083300A publication Critical patent/KR20140083300A/ko
Application granted granted Critical
Publication of KR101436585B1 publication Critical patent/KR101436585B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

본 발명은 복잡한 터치 제스처를 수행하거나 소정의 패턴을 그릴 필요없이 한번의 터치 동작으로 다양한 사용자 명령을 실행할 수 있는 원 포인트 터치를 이용한 사용자 인터페이스 장치 및 이를 위한 장치에 관한 것으로서, 접촉 감지가 가능한 터치 영역을 포함하는 장치가, 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 가해지는 힘의 방향을 검출하고, 검출된 힘의 방향에 따라서, 기 설정된 사용자 명령을 실행하도록 구현된다.

Description

원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치{Method for providing user interface using one point touch, and apparatus therefor}
본 발명은 터치 방식의 사용자 인터페이스에 관한 것으로서, 더욱 상세하게는 사용자가 태핑(tapping), 드래그(drag), 슬라이딩(sliding). 핀칭(pinching)과 같은 복잡한 터치 제스처를 수행하거나 소정의 패턴을 그릴 필요없이 한번의 터치 동작으로 다양한 사용자 명령을 실행할 수 있는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치에 관한 것이다.
오늘날 컴퓨터 시스템을 조작하기 위해, 다수의 버튼 또는 키를 포함하는 키패드, 마우스, 트랙볼, 터치 패드, 조이 스틱, 터치 스크린 등과 같은 여러 종류의 입력 장치가 존재한다. 이러한 입력 장치는, 사용자가 원하는 문자, 기호, 그림 등의 데이터를 컴퓨터 시스템에 입력하거나, 컴퓨터 시스템에 특정 명령을 요청하는 신호를 입력하기 위하여 이용된다.
그리고 이러한 다양한 입력 장치 중에서, 최근에는 입력 수단과 출력 기능을 동시에 구현함으로써 사용자 장치의 소형화 및 단순화를 도모할 수 있는 터치 스크린과 같은 터치 입력 수단이 보편적으로 사용되고 있다.
터치 입력 수단은, 사용자의 신체 일부 또는 터치 펜과 같은 접촉 수단에 의한 터치 영역을 접촉을 감지할 수 있는 것으로서, 터치를 감지하는 방식에 따라서 감압식, 정전식, 광학식 등으로 구분할 수 있다. 여기서, 감압식은 터치에 의해 접촉 지점에 가해지는 압력을 인식하여 터치를 감지하는 방식이며, 정전식은 사용자의 신체 일부의 접촉에 따른 접촉 지점에서의 전하의 변화를 통해 터치를 감지하는 방식이며, 광학식은 적외선 카메라와 적외선 조명을 이용하여 터치 위치를 검출하는 방식이다.
이러한 터치 입력 수단을 이용한 초기의 사용자 인터페이스 제공 방법은, 화면 상에서 다수의 버튼 등과 같은 조작 수단을 표시하고, 접촉이 감지된 위치를 기준으로 해당 기능을 수행하는 형태로 이루어졌으나, 최근에는 사용자 편의성 및 운용성의 향상을 위하여, 접촉 시작 위치, 접촉 시작 시간, 접촉 종료 시간, 접촉 종료 위치 등의 다양한 정보를 조합하여, 태핑(tapping), 드래그(drag), 슬라이딩(sliding). 핀칭(pinching)과 같은 사용자 터치 제스처를 인식하고, 터치 제스처에 따라서 다양한 사용자 명령을 실행하는 방법도 함께 사용되고 있으며, 이외에 터치 영역 내에서 다수의 터치 포인트를 인식하고, 감지되는 터치 포인트의 갯수, 위치 및 조합, 간격 변화 등을 통해서 사용자 명령을 실행토록 하는 방법도 이용되고 있다.
그런데, 이러한 종래의 터치를 이용한 사용자 인터페이스 방법은, 사용자가 복잡한 터치 제스처를 취하거나 여러 지점을 터치하여 복잡한 패턴을 그려야 하기 때문에, 한 손만 이용 가능한 상황에서는 사용자 조작이 어렵다는 불편한 점이 있었다.
또한, 기존의 터치를 이용한 사용자 인터페이스 방법은, 터치 제스처 또는 터치 패턴을 취하고, 이를 인식하는데 소정의 시간이 소요되기 때문에, 즉각적인 반응을 제공하는 데는 한계가 있었다.
본 발명은 상술한 종래의 문제점을 해결하기 위하여 제안된 것으로서, 사용자가 태핑(tapping), 드래그(drag), 슬라이딩(sliding). 핀칭(pinching)과 같은 복잡한 터치 제스처를 수행하거나 소정의 패턴을 그릴 필요없이 한번의 터치 동작으로 다양한 사용자 명령을 실행할 수 있는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치를 제공하고자 한다.
또한, 본 발명은 고정된 접촉 지점에 대하여 가해지는 힘의 방향을 변화시킴으로써 다양한 사용자 명령을 즉각적으로 실행할 수 있는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치를 제공하고자 한다.
본 발명은 상술한 과제를 해결하기 위한 수단으로서, 접촉 감지가 가능한 터치 영역을 포함하는 장치가, 터치 영역의 한 지점에 대한 접촉을 감지하는 단계; 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 가해지는 힘의 방향을 검출하는 단계; 상기 검출된 힘의 방향에 따라서, 기 설정된 사용자 명령을 실행하는 단계를 포함하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법을 제공한다.
본 발명의 실시 예에 따른 사용자 인터페이스 제공 방법에 있어서, 상기 힘의 방향을 검출하는 단계는, 상기 접촉을 감지한 지점에 대하여 일정 면적을 갖는 접촉 영역을 추출하는 단계; 상기 접촉 영역 내의 다수 감지점에서 힘의 세기를 검출하는 단계; 및 검출된 다수 감지점에서의 힘의 세기 분포에 근거하여, 상기 지점에 대하여 가해지는 힘의 방향을 결정하는 단계를 포함하여 이루어질 수 있으며, 여기서, 힘의 방향을 결정하는 단계는 상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정할 수 있다.
또한, 본 발명의 실시 예에 따른 사용자 인터페이스 제공 방법에 있어서, 상기 힘의 방향을 검출하는 단계는, 상기 터치 영역을 기준으로 한 2차원 평면 또는 상기 터치 영역 및 터치 영역에서 하부로 수직한 방향을 기준으로 한 3차원 공간 상에서 상기 힘의 방향을 검출하는 것을 특징으로 한다.
또한, 본 발명의 실시 예에 따른 사용자 인터페이스 제공 방법에 있어서, 상기 사용자 명령을 실행하는 단계는, 상기 힘의 방향에 따라서, 특정 객체 또는 화면에 대한 회전, 이동, 줌인(zoom in), 줌아웃(zoom out), 패닝(panning), 틸팅(tilting) 중 하나 이상을 수행할 수 있다.
또한, 본 발명의 실시 예에 따른 사용자 인터페이스 제공 방법은, 상기 지점에 대하여 가해지는 힘의 세기를 검출하는 단계를 더 포함하고, 상기 사용자 명령을 실행하는 단계는, 상기 검출된 힘의 방향 및 상기 힘의 세기를 고려하여 사용자 명령을 실행할 수 있다.
더하여, 본 발명은 상술한 과제를 해결하기 위한 다른 수단으로서, 접촉 감지가 가능한 터치 영역을 포함하고, 상기 터치 영역에 대한 접촉 여부, 접촉 위치, 접촉 시의 힘의 세기 및 힘의 방향 중에서 하나 이상을 감지하는 터치 입력부; 상기 터치 입력부를 통하여, 상기 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 검출된 힘의 방향에 따라서 기 설정된 사용자 명령을 실행하는 제어부를 포함하는 것을 특징으로 하는 장치를 제공한다.
본 발명의 실시 예에 따른 장치에 있어서, 상기 제어부는 상기 접촉을 감지한 지점에 대하여 일정 면적을 갖는 접촉 영역을 설정하고, 상기 접촉 영역 내에 존재하는 다수 감지점의 힘의 세기를 비교하여, 상기 지점에 대하여 가해지는 힘의 방향을 결정하는 터치 이벤트 처리 모듈을 포함할 수 있으며, 상기 터치 이벤트 처리 모듈은, 상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정할 수 있다.
본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치는, 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 접촉된 상태에서 접촉 위치의 이동없이 상기 지점에 대하여 가해지는 힘의 방향을 검출하고, 검출된 힘의 방향에 따라서 사용자 명령을 실행함으로써, 사용자가 특정 지점을 터치 한 상태에서 이동이나 복잡한 패턴을 그리지 않고, 단지 접촉 지점에 가하는 힘의 방향만을 조절함으로써, 다양한 사용자 명령을 실행할 수 있는 우수한 효과가 있다.
특히, 본 발명은 특정 지점에 대하여 접촉 후 위치 이동없이 힘의 방향을 조절함으로써 조작이 가능해지므로, 스마트 폰과 같은 휴대형 사용자 장치에서 사용자가 한손으로 사용자 장치를 조작하는데 있어서의 사용자의 편의성을 향상시킬 수 있다.
또한, 본 발명은 접촉 지점에 가해지는 힘의 방향에 따라서 사용자 명령을 실행함으로써, 사용자에게 즉각적이고 빠른 응답 결과를 제공할 수 있는 우수한 효과가 있다.
도 1은 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 제공하는 장치를 나타낸 블록도이다.
도 2는 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법을 나타낸 순서도이다.
도 3은 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법에 있어서 힘의 방향을 검출하는 과정을 설명하기 위한 순서도이다.
도 4는 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 화면의 예시도이다.
도 5는 본 발명의 실시 예에 있어서 검출되는 힘의 방향을 설명하기 위한 모식도이다.
도 6 내지 도 8은 본 발명의 실시 예에 따른 사용자 인터페이스 방법에 있어서, 힘의 방향에 따른 사용자 명령 실행 상태를 나타낸 예시도이다.
도 9는 본 발명의 일 실시 예에 따른 접촉 지점에 대한 힘의 방향을 검출하는 원리를 설명하기 위한 모식도이다.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 다만, 하기의 설명 및 첨부된 도면에서 본 발명의 요지를 흐릴 수 있는 공지 기능 또는 구성에 대한 상세한 설명은 생략한다. 또한, 도면 전체에 걸쳐 동일한 구성 요소들은 가능한 한 동일한 도면 부호로 나타내고 있음에 유의하여야 한다.
본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법은, 사용자의 신체 일부(예를 들어, 손가락) 또는 터치 펜과 같은 접촉 수단에 의해 접촉을 감지할 수 있는 터치 영역을 포함하는 장치에 의하여 구현될 수 있다. 상기 장치는, 터치 감지 및 화면 출력이 동시에 이루어질 수 있는 터치 스크린 또는 터치 동작을 감지할 수 있는 터치 패드과 같은 터치 입력 수단을 포함하는 장치라면 어떠한 장치라도 적용될 수 있다. 예를 들어, 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 제공하는 장치는, 터치 스크린 혹은 터치 패드를 구비한 스마트 폰, 휴대폰, 태블릿 PC, 노트북 PC, 데스크 탑 PC, PDA(Personal Digital Assistant) 중 하나가 될 수 있다.
상술한 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 제공하는 장치에 대하여 도 1을 참조하여 설명한다.
도 1은 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 제공하는 장치의 구성을 나타낸 블록도이다. 도 1에서는 본 발명에 따른 사용자 인터페이스를 수행하는데 필요한 구성을 중심으로 장치의 구성을 나타내었으나, 해당 장치는 이하의 구성 이외에 다른 구성이나 기능을 더 포함할 수 있다.
도 1을 참조하며, 본 발명에 따른 사용자 인터페이스를 제공하기 위한 장치(100)는, 터치 입력부(110)와, 제어부(120)와, 저장부(130)와, 출력부(140)를 포함하여 이루어질 수 있다.
상기 터치 입력부(110)는, 접촉 감지가 가능한 터치 영역을 포함하고, 상기 터치 영역에 대한 접촉 동작과 관련된 다양한 정보를 감지하는 수단이다. 특히, 상기 터치 입력부(110)는, 접촉 여부, 접촉 위치, 접촉 시의 힘의 세기 및 힘의 방향 중에서 하나 이상을 감지할 수 있다. 이러한 터치 입력부(110)는, 터치 패드 혹은 터치 스크린 중 하나로 구현될 수 있으며, 더하여, 감압식, 정전식, 광학식 및 초음파 방식 중 하나 이상의 방식으로 상기 접촉 동작과 관련된 다양한 정보를 감지할 수 있다. 아울러, 상기 터치 입력부(110)의 터치 영역은 일정 간격으로 배치된 다수의 감지점을 포함하고 있으며, 상기 다수의 감지점을 통하여 접촉 여부, 접촉 위치, 접촉 시의 힘의 세기 및 힘의 방향 중에서 하나 이상을 감지할 수 있다.
상기 터치 입력부(110)에 의해 검출된 터치 영역의 일 지점에 대한 접촉 여부, 접촉 위치, 접촉 시의 힘의 세기 및 힘의 방향 중 하나 이상에 대응하는 정보는 제어부(120)로 전달된다.
상기 제어부(120)는, 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스의 제공을 위한 주된 처리를 수행하는 구성이다. 이러한 제어부(120)는, 상기 터치 입력부(110)를 통하여, 상기 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 검출된 힘의 방향에 따라서 기 설정된 사용자 명령을 실행하도록 제어한다. 상기 사용자 명령은 앞서 설명한 바와 같이, 화면 또는 화면으로 출력된 특정 객체에 대한 회전, 이동, 패닝, 틸팅, 줌인, 줌 아웃 중 하나 이상이 될 수 있다. 그러나, 사용자 명령은 꼭 이에 한정되지 않는 것이며, 더 다양한 기능의 수행을 지시하기 위한 것일 수 있다.
더하여, 상기 제어부(120)는, 상기 터치 입력부(110)가 힘의 방향을 검출할 수 없는 경우, 상기 터치 입력부(110)로부터 입력된 정보(힘의 세기)를 기준으로 힘의 방향을 결정하기 위한 터치 이벤트 처리 모듈(121)을 포함할 수 있다.
상기 터치 이벤트 처리 모듈(121)은, 상기 터치 영역 내의 접촉을 감지한 지점에 대하여 일정 면적을 갖는 접촉 영역을 설정하고, 상기 접촉 영역 내에 존재하는 다수 감지점의 힘의 세기를 비교하여, 상기 지점에 대하여 가해지는 힘의 방향을 결정한다. 상기 터치 이벤트 처리 모듈(121)에 의한 힘의 방향 결정은, 앞서 도 4에 예시한 바와 같이 이루어질 수 있다. 즉, 상기 터치 이벤트 처리 모듈(121)은 상기 접촉 영역에 포함된 다수의 감지점에서 검출된 힘의 세기 분포에 따라서 힘의 방향을 결정할 수 있는데, 특히, 상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정할 수 있다.
저장부(130)는 상기 장치(100)의 동작을 위한 프로그램 및 데이터를 저장하기 위한 구성으로서, 특히, 상기 제어부(120)에 의해 실행되는 터치 이벤트 처리를 위한 프로그램 및 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 실행하도록 구현된 프로그램을 저장할 수 있으며, 아울러, 힘의 방향과 각 힘의 방향이 검출시 실행하여야 할 사용자 명령을 매핑한 설정 정보를 더 저장할 수 있다.
상기 제어부(120)는 상기 저장부(130)에 저장된 프로그램 및 데이터를 기반으로 실행하여 본 발명에 따른 사용자 인터페이스를 제공할 수 있다.
마지막으로, 출력부(140)는 상기 제어부(120)의 제어에 따라서 사용자 인터페이스 화면을 출력하는 구성으로서, 예를 들어, 액정 표시 장치(Liquid Crystal Display), OLED(Organic Light Emitted Diode) 등의 다양한 종류의 표시 패널로 형성될 수 있으며, 또한, 제조 형태에 따라 표시 패널과 터치 패널을 포함하는 구조, 예를 들면, 터치스크린(touch screen)으로 구현될 수 있다. 터치스크린 형태로 표시 장치가 형성된 경우, 상기 출력부(140)와 터치 입력부(110)는 일체로 구현될 수 있다.
이와 같이 구성된 본 발명에 따른 사용자 인터페이스 제공을 위한 장치(100)의 원 포인트 터치를 이용한 사용자 인터페이스 제공 과정은, 도 2 및 도 3를 참조한 사용자 인터페이스 제공 방법에 대한 설명으로부터 더 쉽게 이해될 수 있다.
여기서, 도 2는 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법을 나타낸 순서도이며, 도 3은 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법에 있어서, 힘의 방향을 검출하는 과정의 일 예를 설명하기 위한 순서도이다.
도 2를 참조하면, 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공을 위한 장치(100)은, S110 단계에서, 감지 가능한 힘의 방향에 따라서 서로 다른 소정의 기능을 수행하도록 지시하는 사용자 명령을 매핑하여 설정할 수 있다. 상기 S110 단계는, 사용자 선택에 따라서 이루어질 수 도 있고, 사용자 선택과 관계없이 디폴트동작으로 기 설정될 수 있다. 즉, 상기 장치에, 힘의 방향 별로 사용자 명령이 기 설정되어 있는 경우, 상기 S110 단계는 생략될 수 있다.
이어서 S120 단계에서, 상기 장치(100)는, 터치 입력부(110)를 통해서 터치 영역의 한 지점에 대한 접촉을 감지한다. 여기서, 터치 영역의 한 지점에 대한 접촉 감지는, 감압식, 정전식, 광학식 및 초음파 방식 중 하나의 방식을 통해 이루어질 수 있다. 또한, 상기 S120 단계는, 감압식, 정전식, 광학식 및 초음파 방식 중 하나의 방식을 통하여 접촉을 감지하는 터치 스크린 또는 터치 패드 등의 터치 입력 수단에 의한 터치 감지를 확인하는 과정으로 이해될 수 있다. 여기서, 접촉이 이루어지는 지점은, 터치 영역 내에서 사용자가 조작하고자 하는 객체 또는 화면이 표시된 영역, 또는 터치 영역 중 힘의 방향에 따른 사용자 조작을 위한 영역으로 기 설정된 영역의 한 지점이 될 수 있다.
이와 같이, 터치 영역의 한 지점에 대한 접촉이 감지되면, 본 발명에 의한 장치(100)의 제어부(120)는, S130 단계에서, 상기 터치 영역의 한 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 가해지는 힘의 방향을 검출한다. 여기서, 힘의 방향은, 상기 터치 영역의 특정 지점에 대하여 접촉함에 따라서, 해당 지점의 터치 면에 가해지는 힘의 방향을 의미하는 것으로서, 드래그, 슬라이딩 등과 같은 터치 제스처에서와 같이 접촉 지점이 바뀌는 터치 방향과는 다른 것이다. 통상적으로, 터치 방향은 최초 접촉 위치에서 일정 시간후의 접촉 위치 또는 최종 접촉 위치로의 방향을 의미하는 것으로서, 시간 변화에 따른 감지되는 접촉 위치가 달라지는데 반해, S130 단계에서 감지하는 힘의 방향은, 터치가 발생한 접촉 지점의 위치값이 변화되지 않는 값이다. 이러한 힘의 방향은, 접촉이 발생한 지점을 중심으로 방사형으로 뻗어나가는 형태로 표현될 수 있으며, 기 설정된 기준축을 기준으로 한 0~360도 범위의 각도값 또는 동서 및/또는 남북 또는 전후 및/또는 좌우로 표현될 수 있다.
이렇게 접촉이 발생한 지점에 가해지는 힘의 방향을 검출하면, S140 단계에서, 본 발명에 따른 장치(100)의 제어부(120)는, 상기 검출된 힘의 방향에 따라서 기 설정된 사용자 명령을 실행한다.
여기서 실행되는 사용자 명령은, 화면 또는 사용자 인터페이스 화면 상에 출력된 특정 객체에 대하여 이루어지는 소정 동작을 수행하도록 지시하는 것으로서, 예를 들어, 특정 객체 또는 화면에 대한 회전, 이동, 줌인(zoom in), 줌아웃(zoom out), 패닝(panning), 틸팅(tilting) 중 하나 이상이 될 수 있다.
상술한 바에 따르면, 사용자는 터치 영역의 특정 지점을 터치 한 후, 드래그나 슬라이딩 등 터치 제스처를 취할 필요없이, 해당 지점에 가해지는 힘의 방향만을 조절함으로써, 다양한 사용자 명령을 실행할 수 있게 된다.
아울러, 본 발명에 따른 사용자 인터페이스 제공 방법은, S130 단계에 있어서, 접촉 지점에 대하여 가해지는 힘의 방향의 검출은 다양한 방법으로 이루어질 수 있는데, 예를 들어, 터치 동작에 따라서 접촉 지점에 가해지는 힘의 방향을 검출할 수 있는 센서를 통하여 감지할 수 도 있으나, 상기 장치에 구비된 터치 입력 수단이 힘의 방향을 검출할 수 없는 경우, 본 발명은 터치 입력 수단에서 감지 가능한 정보를 이용하여 힘의 방향을 결정할 수 있다.
또한, 상술한 실시 예에서는 힘의 방향에 따른 사용자 명령 실행만을 설명하였으나, 본 발명에 따른 사용자 인터페이스 제공 방법은, 힘의 방향에 다른 하나 이상의 정보(예를 들어, 접촉 지점에 대한 힘의 세기)를 더 고려하여 사용자 명령을 실행할 수 있다. 상기 힘의 방향과 하나 이상의 다른 정보를 더 고려할 경우, 더 다양한 사용자 명령을 실행할 수 있다.
도 3은 본 발명의 일 실시 예에 따라서 힘의 세기를 이용하여 힘의 방향을 검출하는 과정을 나타낸 순서도이다.
도 3을 참조하면, 본 발명에 따른 장치(100)의 제어부(120), 특히 터치 이벤트 처리 모듈(121)은, S130 단계에서 접촉이 감지된 지점에 대하여 가해지는 힘의 방향을 검출하기 위하여, 우선 S210 단계와 같이, 상기 접촉이 감지된 지점에 대하여 일정 면적을 갖는 접촉 영역을 설정한다. 상기 S210 단계는, 상기 지점을 기준으로 기 설정된 면적의 범위를 접촉 영역으로 설정함에 이루어질 수도 있고, 터치 영역 내에서 실제 접촉이 감지되고 서로 인접한 하나 이상의 감지점을 연결하여 설정할 수도 있다. 이에 대하여 더 구체적으로 설명하면, 통상 터치 영역은 일정 간격으로 배치된 다수의 감지점을 포함하는데, 이러한 감지점의 수 혹은 감지점의 간격 또는 단위 면적에 따라서 터치 감도가 달라질 수 있다. 본 발명에서는, 사용자의 손가락 또는 터치 펜과 같은 접촉 수단에 의해 터치 영역을 접촉할 때, 다수의 감지점에서 상기 접촉을 감지할 수 있도록 상기 손가락 또는 터치 펜의 크기보다 작은 간격으로 배치할 수 있으며, 이 경우, 터치 영역에서 사용자의 손가락 또는 접촉 수단에 의한 접촉을 감지한 다수의 감지점을 연결한 영역 또는 상기 다수의 감지점을 기준으로 기 설정된 면적의 영역을 접촉 영역으로 설정할 수 있다.
이와 같이, 접촉 영역이 설정되면, 본 발명에 따른 터치 이벤트 처리 모듈(121)은, S220 단계에서 상기 접촉 영역에 포함된 다수의 감지점에서 힘의 세기를 검출한다. 여기서, 힘의 세기는 압력의 크기로 표현될 수 있다.
그리고, 본 발명에 따른 터치 이벤트 처리 모듈(121)은, S230 단계에서, 상기 접촉 영역에 포함된 다수의 감지점에서 검출된 힘의 세기 분포에 따라서 힘의 방향을 결정한다. 더 구체적으로, 힘의 세기 분포에 따라서 힘의 방향을 결정하는 것은, 상기 접촉 영역 상에서 더 큰 세기의 힘의 가해진 방향을 힘의 방향으로 검출하는 것으로서, 예를 들어, 상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정할 수 있다. 여기서, 힘의 방향은, 전후 및/또는 좌우, 동서 및/또는 남북 중에서 하나로 표현되거나, 기준축을 기준으로 한 각도로 표현될 수 있다. 또한, 상기 힘의 방향은, 상기 터치 영역을 기준으로 한 2차원 평면 또는 상기 터치 영역에 대하여 하부로 수직한 방향까지 포함하는 3차원 공간 상에서의 방향이 될 수 있다.
이와 같이, 접촉이 감지된 지점에 가해지는 힘의 방향을 검출하기 위하여, 본 발명에 따른 장치(100)는, 터치 영역에서의 특정 지점에 대한 접촉 여부, 접촉 위치, 접촉 지점에 가해지는 힘의 세기, 접촉 지점에 가해지는 힘의 방향 중에서 하나 이상을 검출할 수 있는 것이 바람직하다.
본 발명에 따른 사용자 인터페이스 제공 방법은 다양한 컴퓨터 수단을 통하여 판독 가능한 소프트웨어 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 및 롬(ROM), 램(RAM, Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서 설명한 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법은, 도 4 및 도 5의 예시를 참조함으로써 더 쉽게 이해될 수 있다.
도 4는 본 발명의 실시 예에 따른 원 포인트 터치를 이용한 사용자 인터페이스 화면의 예시도이다. 여기서, 부호 30은 본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스를 제공하는 장치로서, 스마트 폰과 같은 터치 스크린을 포함하는 휴대형 단말 장치를 나타낸다. 그리고, 31은 상기 휴대형 단말 장치(30)에 구비된 사용자 인터페이스 화면을 나타낸다. 상기 사용자 인터페이스 화면(31)은 사용자가 조작하고자 하는 대상, 즉, 사용자 명령의 실행 대상이 되는 객체(32) 및 상기 객체(32)를 조작하기 위한 터치 영역(33)을 포함한다.
상기 실시 예에서는, 사용자 인터페이스 화면(31)의 일부 영역을 터치 영역(33)으로 표현하였으나, 상기 터치 영역(33)은 상기 사용자 인터페이스 화면 전체로 설정될 수 있다. 아울러, 상기 실시 예에서는, 사용자 명령의 실행 대상이 되는 객체(32)와 구분되는 영역에 터치 영역(33)을 표현하였으나, 이와 달리, 상기 터치 영역(33)은 사용자 명령의 실행 대상이 되는 객체(32)와 매핑되는 영역으로 설정될 수도 있다. 후자의 경우, 상기 객체(32)를 터치함에 의해 사용자 명령의 실행 대상에 대한 선택 및 힘의 방향에 따른 사용자 명령 실행이 동시에 이루어질 수 있다.
상기 상태에서, 사용자가 터치 영역(33)의 한 지점을 손가락으로 접촉하면, 상기 휴대형 단말 장치(30)는 이를 감지하고, 상기 지점에 대하여 사용자에 의해 가해지는 힘의 방향을 검출한다. 상기 힘의 방향은 상기 터치 영역(33)에 구비되는 소정의 센서를 통해 검출될 수 있으며, 상기 터치 영역(33) 내에서 사용자의 손가락과 접촉되는 접촉 영역의 중심을 기준으로 검출될 수 있다.
상기 터치 영역(33)의 접촉이 감지된 지점에 대하여 가해지는 힘의 방향은, 예를 들어, 화면을 기준으로 좌측 방향(
Figure pat00001
), 우측 방향(
Figure pat00002
), 위쪽 방향(
Figure pat00003
), 아래쪽 방향(
Figure pat00004
) 및 화면 뒤로 향하는 방향(
Figure pat00005
) 중 하나 이상을 포함할 수 있다.
상기 위쪽 방향(
Figure pat00006
)은 도 5에 도시된 바와 같이, 화면의 위쪽 방향으로 힘의 향하는 것을 의미하며, 사용자가 화면을 위쪽으로 미는 행위에 대응하여 검출될 수 있다. 그리고, 아래쪽 방향(
Figure pat00007
)은 화면을 기준으로 화면의 아래쪽 방향으로 힘의 향하는 것을 의미하며, 사용자가 화면을 아래로 당기는 행위에 대응하여 검출할 수 있으며, 뒷 방향(
Figure pat00008
) 은 화면에 수직 방향으로 힘이 가해지는 경우를 의미하는 것으로서, 사용자가 화면을 뒤쪽으로 미는 행위에 대응하여 검출될 수 있다.
상기 검출된 힘의 방향에 따른 사용자 명령의 실행은 도 6 내지 도 8가지 이루어질 수 있다.
도 6은 도 4의 상태에서, 사용자가 화면의 위쪽 방향(
Figure pat00009
)으로 힘을 가한 경우의 사용자 명령 실행 상태를 나타낸 것으로서, 사용자가 화면(31)에 손가락을 접촉한 상태에서 접촉 지점의 위치 변화 없이 화면 위쪽으로 미는 행위를 취할 경우, 힘의 방향이 화면 위쪽 방향으로 검출되며, 이 경우, 객체(32)가 화면의 위쪽으로 이동된다.
아울러, 도 7은 도 4의 상태에서, 사용자가 화면의 아랫 방향(
Figure pat00010
)으로 힘의 가한 경우의 사용자 명령 실행 상태를 나타낸 것으로서, 사용자가 화면(31)에 접촉한 상태에서 접촉 지점의 위치 변화 없이, 화면을 당기는 듯한 행위를 취할 경우, 아랫 방향으로 힘의 방향이 검출되며, 이에 대응하여 객체(32)는 화면의 아래쪽으로 이동된다.
또한, 도 8에 도시된 바와 같이, 사용자가 화면(31)에 손가락을 접촉한 상태에서, 위치 변화없이 화면 뒤로 미는 듯한 동작을 가하게 되면, 화면 뒷 방향(
Figure pat00011
)으로 힘의 방향이 검출되며, 이 경우 객체(32)는 뒤로 멀어지는 상태로 표시된다.
상기 예시와 같이, 힘의 방향에 따라서 사용자 명령을 실행할 경우, 사용자의 조작(행위)와 직관적으로 매칭되게 사용자 명령을 실행시킬 수 있으며, 따라서, 사용자가 직관적이고 보다 쉽게 화면을 조작할 수 있게 된다.
아울러, 본 발명에 따른 사용자 인터페이스 제공 방법에 있어서, 힘의 방향은 힘의 세기를 분석함에 의해 검출할 수 있다.
도 9는 본 발명의 일 실시 예에 따라서, 힘의 세기를 이용하여 힘의 방향을 검출하는 과정의 일 예를 나타낸 모식도이다.
이를 참조하면, 상기 터치 영역(33)의 일 지점에 대한 사용자 접촉이 이루어지면, 상기 터치 영역(33)의 표면과 사용자의 손가락이 접촉한 지점을 기준으로 소정의 면적을 갖는 접촉 영역(34)이 설정되거나 추출된다. 상기 접촉 영역(34)은 상기 일 지점의 특정 좌표(예를 들어, 중심 좌표)를 기준으로 기 설정된 면적의 범위로 설정되거나, 상기 터치 영역(33)에 포함된 다수의 감지점 줌에서 사용자 접촉을 감지한 다수의 인접한 감지점을 연결하여 설정할 수 있다.
그리고, 상기 설정 또는 추출된 접촉 영역(34)의 다수 감지점에서 검출된 힘의 세기(F1~F5)를 검출한다. 사용자가 접촉 영역(34) 중 힘을 가하는 방향의 감지점에서 더 힘의 세기가 크게 검출될 수 있다.
따라서, 본 발명에 따른 휴대형 단말 장치(30)는, 상기 접촉 영역(34)의 중심점으로부터 상기 다수의 감지점 중에서 가장 힘의 세기가 큰 감지점의 방향을 상기 접촉 영역(34)에 가해지는 힘의 방향(
Figure pat00012
)으로 검출한다.
이상의 설명 및 도면에서는 예시적인 장치 구성을 기술하고 있지만, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 다른 유형의 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 본 발명에 따른 장치의 동작을 제어하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다. 컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 기계로 판독 가능한 전파형 신호에 영향을 미치는 물질의 조성물 혹은 이들 중 하나 이상의 조합일 수 있다.
본 명세서는 다수의 특정한 구현물의 세부 설명들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 발명의 특정한 실시 예에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다.
아울러, 본 명세서에서, 특정한 순서로 도면 및 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티 태스킹과 병렬 프로세싱이 유리할 수 있다.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으나, 여기에 개시된 실시 예외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다. 또한, 본 명세서와 도면에서 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다.
본 발명에 따른 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치는, 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 가해지는 힘의 방향을 검출하고, 검출된 힘의 방향에 따라서 사용자 명령을 실행함으로써, 사용자가 특정 지점을 터치 한 상태에서 이동이나 복잡한 패턴을 그리지 않고, 단지 접촉 지점에 가하는 힘의 방향만을 조절함으로써, 다양한 사용자 명령을 실행할 수 있는 우수한 효과가 있다.
특히, 본 발명은 스마트 폰과 같은 휴대형 사용자 장치에서 사용자가 한손으로 사용자 장치를 조작하는데 있어서, 특정 지점에 대하여 접촉 후 힘의 방향 만을 조절함으로써 조작이 가능해지므로, 사용자의 편의성을 향상시킬 수 있다.
또한, 본 발명은 접촉 지점에 가해지는 힘의 방향에 따라서 사용자 명령을 실행함으로써, 사용자에게 즉각적이고 빠른 응답 결과를 제공할 수 있는 우수한 효과가 있다.
110: 터치 입력부
120: 제어부
130: 저장부
140: 출력부

Claims (9)

  1. 접촉 감지가 가능한 터치 영역을 포함하는 장치가,
    터치 영역의 한 지점에 대한 접촉을 감지하는 단계;
    접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 가해지는 힘의 방향을 검출하는 단계;
    상기 검출된 힘의 방향에 따라서, 기 설정된 사용자 명령을 실행하는 단계를 포함하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  2. 제1항에 있어서, 상기 힘의 방향을 검출하는 단계는
    상기 접촉을 감지한 지점에 대하여 일정 면적을 갖는 접촉 영역을 추출하는 단계;
    상기 접촉 영역 내의 다수 감지점에서 힘의 세기를 검출하는 단계;
    검출된 다수 감지점에서의 힘의 세기 분포에 근거하여, 상기 지점에 대하여 가해지는 힘의 방향을 결정하는 단계를 포함하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  3. 제2항에 있어서, 상기 힘의 방향을 결정하는 단계는
    상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  4. 제1항에 있어서, 상기 힘의 방향을 검출하는 단계는
    상기 터치 영역을 기준으로 한 2차원 평면 또는 상기 터치 면에 대하여 하부로 수직한 방향까지 포함하는 3차원 공간 상에서 힘의 방향을 검출하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  5. 제1항에 있어서, 상기 사용자 명령을 실행하는 단계는
    상기 힘의 방향에 따라서, 특정 객체 또는 화면에 대한 회전, 이동, 줌인(zoom in), 줌아웃(zoom out), 패닝(panning), 틸팅(tilting) 중 하나 이상을 수행하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  6. 제1항에 있어서,
    상기 지점에 대하여 가해지는 힘의 세기를 검출하는 단계를 더 포함하고,
    상기 사용자 명령을 실행하는 단계는, 상기 검출된 힘의 방향 및 상기 힘의 세기를 고려하여 사용자 명령을 실행하는 것을 특징으로 하는 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법.
  7. 접촉 감지가 가능한 터치 영역을 포함하고, 상기 터치 영역에 대한 접촉 여부, 접촉 위치, 접촉 시의 힘의 세기 및 힘의 방향 중에서 하나 이상을 감지하는 터치 입력부;
    상기 터치 입력부를 통하여, 상기 터치 영역의 한 지점에 대한 접촉을 감지하면, 상기 지점에 대한 접촉이 고정된 상태에서 상기 지점에 대하여 검출된 힘의 방향에 따라서 기 설정된 사용자 명령을 실행하는 제어부를 포함하는 것을 특징으로 하는 장치.
  8. 제7항에 있어서, 상기 제어부는
    상기 접촉을 감지한 지점에 대하여 일정 면적을 갖는 접촉 영역을 설정하고, 상기 접촉 영역 내에 존재하는 다수 감지점의 힘의 세기를 비교하여, 상기 지점에 대하여 가해지는 힘의 방향을 결정하는 터치 이벤트 처리 모듈을 포함하는 것을 특징으로 하는 장치.
  9. 제8항에 있어서, 상기 터치 이벤트 처리 모듈은
    상기 접촉 영역의 중앙을 기준으로 가장 큰 힘의 세기가 검출된 감지점의 방향을 상기 힘의 방향으로 결정하는 것을 특징으로 하는 장치.
KR1020120152885A 2012-12-26 2012-12-26 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치 KR101436585B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120152885A KR101436585B1 (ko) 2012-12-26 2012-12-26 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
PCT/KR2013/012136 WO2014104726A1 (ko) 2012-12-26 2013-12-24 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
US14/655,473 US20150355769A1 (en) 2012-12-26 2013-12-24 Method for providing user interface using one-point touch and apparatus for same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120152885A KR101436585B1 (ko) 2012-12-26 2012-12-26 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Publications (2)

Publication Number Publication Date
KR20140083300A true KR20140083300A (ko) 2014-07-04
KR101436585B1 KR101436585B1 (ko) 2014-10-30

Family

ID=51733761

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120152885A KR101436585B1 (ko) 2012-12-26 2012-12-26 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치

Country Status (1)

Country Link
KR (1) KR101436585B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
KR20180037076A (ko) * 2015-06-18 2018-04-10 애플 인크. 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007052008A1 (de) * 2007-10-26 2009-04-30 Andreas Steinhauser Single- oder multitouchfähiger Touchscreen oder Touchpad bestehend aus einem Array von Drucksensoren sowie Herstellung solcher Sensoren
KR101102086B1 (ko) * 2009-05-06 2012-01-04 (주)빅트론닉스 터치 스크린 제어 방법, 터치 스크린 장치 및 휴대용 전자 장치
JP5326802B2 (ja) 2009-05-19 2013-10-30 ソニー株式会社 情報処理装置、画像拡大縮小方法及びそのプログラム
KR101319264B1 (ko) * 2010-01-22 2013-10-18 전자부품연구원 멀티 터치 압력에 기반한 ui 제공방법 및 이를 적용한 전자기기

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10545635B2 (en) 2015-06-18 2020-01-28 Apple Inc. Device, method, and graphical user interface for navigating media content
KR20200091955A (ko) * 2015-06-18 2020-07-31 애플 인크. 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US10572109B2 (en) 2015-06-18 2020-02-25 Apple Inc. Device, method, and graphical user interface for navigating media content
US10073591B2 (en) 2015-06-18 2018-09-11 Apple Inc. Device, method, and graphical user interface for navigating media content
US10073592B2 (en) 2015-06-18 2018-09-11 Apple Inc. Device, method, and graphical user interface for navigating media content
KR20180037076A (ko) * 2015-06-18 2018-04-10 애플 인크. 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR20190049914A (ko) * 2015-06-18 2019-05-09 애플 인크. 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US11816303B2 (en) 2015-06-18 2023-11-14 Apple Inc. Device, method, and graphical user interface for navigating media content
KR20210049185A (ko) * 2015-06-18 2021-05-04 애플 인크. 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
US10152300B2 (en) 2015-09-08 2018-12-11 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US11960707B2 (en) 2015-09-08 2024-04-16 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US10599394B2 (en) 2015-09-08 2020-03-24 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US10963130B2 (en) 2015-09-08 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US9990113B2 (en) 2015-09-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11262890B2 (en) 2015-09-08 2022-03-01 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US11635876B2 (en) 2015-09-08 2023-04-25 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US10474333B2 (en) 2015-09-08 2019-11-12 Apple Inc. Devices, methods, and graphical user interfaces for moving a current focus using a touch-sensitive remote control
US9928029B2 (en) 2015-09-08 2018-03-27 Apple Inc. Device, method, and graphical user interface for providing audiovisual feedback
US11922006B2 (en) 2018-06-03 2024-03-05 Apple Inc. Media control for screensavers on an electronic device

Also Published As

Publication number Publication date
KR101436585B1 (ko) 2014-10-30

Similar Documents

Publication Publication Date Title
US10983694B2 (en) Disambiguation of keyboard input
US9569106B2 (en) Information processing apparatus, information processing method and computer program
EP2474896B1 (en) Information processing apparatus, information processing method, and computer program
US9350841B2 (en) Handheld device with reconfiguring touch controls
EP2631766B1 (en) Method and apparatus for moving contents in terminal
US20090289902A1 (en) Proximity sensor device and method with subregion based swipethrough data entry
US9448714B2 (en) Touch and non touch based interaction of a user with a device
US20110227947A1 (en) Multi-Touch User Interface Interaction
US9778780B2 (en) Method for providing user interface using multi-point touch and apparatus for same
KR20120050971A (ko) 표시 제어 장치, 표시 제어 방법 및 컴퓨터 프로그램
US20090288889A1 (en) Proximity sensor device and method with swipethrough data entry
JP2011014044A (ja) 操作制御装置、操作制御方法およびコンピュータプログラム
US20130271369A1 (en) Electronic system
US20140285461A1 (en) Input Mode Based on Location of Hand Gesture
US20150355769A1 (en) Method for providing user interface using one-point touch and apparatus for same
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR102135167B1 (ko) 정보처리장치 및 정보처리방법
KR101436588B1 (ko) 멀티 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR101436587B1 (ko) 투 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR20200019426A (ko) 스마트 터치패드 인터페이스 방법 및 그 장치
JP6331022B2 (ja) 表示装置、表示制御方法、及び表示制御プログラム
KR101436586B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
KR20140086805A (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록매체
KR20160059079A (ko) 터치 압력을 이용한 애플리케이션 제어 장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
FPAY Annual fee payment

Payment date: 20180627

Year of fee payment: 5