KR20100129424A - 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치 - Google Patents

터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치 Download PDF

Info

Publication number
KR20100129424A
KR20100129424A KR1020090047981A KR20090047981A KR20100129424A KR 20100129424 A KR20100129424 A KR 20100129424A KR 1020090047981 A KR1020090047981 A KR 1020090047981A KR 20090047981 A KR20090047981 A KR 20090047981A KR 20100129424 A KR20100129424 A KR 20100129424A
Authority
KR
South Korea
Prior art keywords
contact
touch
contact force
touch input
input signal
Prior art date
Application number
KR1020090047981A
Other languages
English (en)
Inventor
김종호
김민석
박연규
강대임
Original Assignee
한국표준과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국표준과학연구원 filed Critical 한국표준과학연구원
Priority to KR1020090047981A priority Critical patent/KR20100129424A/ko
Priority to US12/534,986 priority patent/US20100302177A1/en
Publication of KR20100129424A publication Critical patent/KR20100129424A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 위치 및 힘을 동시에 인식하는 터치스크린상의 사용자 인터페이스를 제공하는 방법 및 장치에 관한 것이다. 특히, 터치입력부(100)를 통하여 사용자의 포인팅 오브젝트(1)의 접촉으로 감지되는 터치입력신호를 수신하는 단계(S100); 위치처리부(200)가 수신된 터치입력신호에 대응하는 접촉위치를 식별하는 단계(S200) 및 세기처리부(300)가 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석하는 단계(S300)가 동시 또는 순차적으로 실행되는 단계; 제어부(400)가 식별된 접촉위치 및 분석된 접촉힘의 세기 패턴을 기초로 터치입력신호에 대응하는 소정의 이벤트를 결정하는 단계(S400); 및 출력부(500)가 결정된 이벤트를 디스플레이 화면으로 출력하는 단계(S500);를 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법이 개시된다.
사용자 인터페이스, 터치스크린, 촉각센서

Description

터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치{METHOD AND APPARATUS TO PROVIDE USER INTERFACE USING TOUCH SCREEN BASED ON LOCATION AND INTENSITY}
본 발명은 터치스크린을 통한 사용자 인터페이스 제공 방법 및 장치에 관한 것으로서, 더욱 상세하게는 터치스크린에 접촉한 포인팅 오브젝트의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공방법 및 장치에 관한 것이다.
일반적으로, 터치스크린(touch screen)이란 키보드와 마우스를 대체하는 입력장치로써 모니터 이를테면, LCD(liquid crystal display)상에 사용자의 터치를 감지할 수 있는 터치패널(touch panel)을 부착하여 사용자로 하여금 원하는 작업을 수행할 수 있도록 한 것인바, 특히 크기의 제약을 받는 소형 단말기 예컨대, 휴대폰, PMP 혹은 MP3 플레이어 등에 사용되어 진다.
이러한 터치스크린은 종래에 포인팅 오브젝트(예: 스타일러스 팁, 손가락 등)의 접촉에 의한 힘에 비례해서 연속적인 데이터를 획득할 수 없었기 때문에 ON/OFF의 상태로만 사용되었다. 즉, 접촉여부만을 인식하여 접촉한 위치만을 검출하기 때문에 터치입력장치에서의 사용자 인터페이스는 한정된 기능만을 제공하고 있었다. 예를 들어 애플의 '아이폰'의 경우 이동 중에 멀티터치를 이용하여 화면의 확대, 축소를 하는 경우 두 손을 사용해야 되지만 위치 및 힘을 동시에 측정하는 터치입력장치를 할 경우 힘 인식 기능을 이용한 한 손만을 사용하여 확대, 축소를 할 수 있는 동작이 가능해진다.
따라서 종래 터치입력장치를 이용한 사용자인터페이스로는 다양한 기능을 구현할 수 없지만 접촉위치 및 힘의 세기 정보를 얻을 수 있는 터치스크린을 이용하면 좀 더 직관적인 인식에 맞는 새로운 사용자 인터페이스 구현방법이 가능하여 관심의 대상이 되고 있다.
따라서, 본 발명은 상기와 같은 필요에 의하여 창출된 것으로서, 본 발명의 목적은 터치스크린에 접촉하는 포인팅 오브젝트의 접촉위치와 접촉에 따른 힘의 세기 정보를 얻을 수 있는 터치스크린을 이용한 다양한 사용자 인터페이스 방법 및 장치를 제공하는데 있다.
본 발명의 또 다른 목적은 터치스크린과 포인팅 오브젝트의 접촉위치와 접촉에 따른 힘의 세기 정보를 얻을 수 있는 터치스크린을 이용하여 직관적인 사용자 인터페이스 방법 및 장치를 제공하는데 있다.
상기와 같은 본 발명의 목적은 접촉위치 및 접촉힘을 감지할 수 있는 터치스크린을 갖는 터치입력부의 사용자 인터페이스 제공 방법에 있어서, 터치입력부(100)를 통하여 사용자의 포인팅 오브젝트(1)의 접촉으로 감지되는 터치입력신호를 수신하는 단계(S100); 위치처리부(200)가 수신된 터치입력신호에 대응하는 접촉위치를 식별하는 단계(S200) 및 세기처리부(300)가 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석하는 단계(S300)가 동시 또는 순차적으로 실행되는 단계; 제어부(400)가 식별된 접촉위치 및 분석된 접촉힘의 세기 패턴을 기초로 터치입력신호에 대응하는 소정의 이벤트를 결정하는 단계(S400); 및 출력부(500)가 결정된 이벤트를 디스플레이 화면으로 출력하는 단계(S500);를 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법에 의해 달성될 수 있다.
터치입력부(100)의 터치입력신호 수신 단계(S100)는, 접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것이 바람직하다.
또한, 위치처리부(200)의 접촉위치 식별 단계(S200)는, 접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것이 바람직하다.
그리고, 세기처리부(300)의 접촉세기 식별 단계(S300)는, 접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것이 바람직하다.
이벤트는 식별된 접촉 위치를 터치스크린(130)의 중심으로 좌표변환하여 디스플레이 화면을 갱신하는 것이 바람직하다.
또한 이벤트는 디스플레이 화면을 줌인 또는 줌아웃하여 디스플레이 화면을 갱신하는 것도 바람직하다.
터치스크린(130)은 줌인 이벤트 및 줌아웃 이벤트 중 어느 하나를 선택할 수 있는 토글버튼(110)을 디스플레이하는 것이 바람직하다.
그리고 접촉힘의 세기 패턴은 수신된 터치입력신호에 대한 접촉힘 세기 정보를 포함하고, 디스플레이 화면은 접촉힘 세기 정보에 비례하여 갱신되는 것이 바람직하다.
또한 접촉힘의 세기 패턴은, 제 1 터치입력신호에 대응하는 제 1 접촉위치 및 제 2 터치입력신호에 대응하는 제 2 접촉위치에 대한 드래그 앤 드랍 패턴을 포함하고 이벤트는, 제 1 접촉위치에 대응하는 디스플레이 화면을 제 2 접촉위치에 대응하는 디스플레이 화면으로 갱신하는 것이 바람직하다.
접촉힘의 세기 패턴은, 소정 임계치 이상의 접촉힘 세기가 인가된 후 임계치 미만의 유한값을 가지는 접촉힘 세기에 대한 패턴 정보인 것이 바람직하다.
드래그 앤드 드랍 패턴은, 제 1 접촉위치에서 제 2 접촉위치로의 변화가 좌에서 우로의 변화, 우에서 좌로의 변화, 위에서 아래로의 변화, 아래에서 위로의 변화 및 대각선 방향의 변화중 어느 하나를 기초로 한 패턴 정보인 것이 바람직하다.
제 2 접촉위치에 대응하는 디스플레이 화면은, 디스플레이 화면 상의 이전 페이지 또는 다음 페이지에 대한 디스플레이 화면인 것도 바람직하다.
한편, 본 발명의 목적은 또 다른 카테고리로서 사용자의 포인팅 오브젝트(1) 접촉으로 감지되는 터치입력신호를 수신하는 촉각센서(140)를 구비한 터치입력부(100); 수신된 터치입력신호에 대응하는 접촉위치를 식별하는 위치처리부(200); 촉각센서(140)의 출력신호에 기초하여 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석하는 세기처리부(300); 식별된 접촉위치 및 분석된 접촉힘의 세기 패턴을 기초로 터치입력신호에 대응하는 소정의 이벤트를 결정하는 제어부(400); 및 결정된 이벤트를 디스플레이 화면으로 출력하는 출력부(500);를 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 장치에 의해서도 달성될 수 있다.
여기서 터치입력부(100)는 접촉저항 방식의 터치스크린 또는 정전용량 방식의 터치스크린을 포함하는 것이 바람직하다.
또한 터치입력신호는 접촉힘 및 접촉위치에 대응하는 터치입력신호 정보인 것이 바람직하다.
상기와 같은 본 발명의 바람직한 일실시예에 따르면, 터치스크린에 접촉하는 포인팅 오브젝트의 접촉위치와 접촉힘의 세기 정보에 따라 다양한 사용자 인터페이스 방법 및 장치를 제공하므로 본 발명이 적용되는 각종 단말기의 어플리케이션 활용을 증대하는 효과가 있다.
또한, 터치스크린과 포인팅 오브젝트의 접촉위치와 접촉힘의 세기 정보에 따라 직관적인 사용자 인터페이스를 구현할 수 있으므로 사용자 편의를 증대하는 효과가 있다.
< 실시예 >
이하 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 사용자 인터페이스 장치의 구성을 나타낸 블록도이다. 도 1에서 알 수 있는 바와 같이 본 발명은 터치입력부(100), 위치처리부(200), 세기처리부(300), 제어부(400) 및 출력부(500)를 포함하여 구성된다.
터치입력부(100)는 위치 및 힘을 동시에 감지하는 터치스크린(130)을 통하여 사용자의 포인팅 오브젝트(1, 예: 스타일러스펜, 손가락 등)의 접촉으로 감지되는 터치입력신호를 수신한다. 본 실시예는 접촉저항 방식에 따른 촉각센서(140)를 사용한 위치 및 힘 감지 터치스크린이지만 이외에도 터치입력부(100)는 정전용량 방식의 위치 및 힘 감지용 터치스크린 등을 포함한 다른 구성(미도시)이 될 수 있다. 이하 접촉위치 및 접촉힘을 감지할 수 있는 터치입력부(100)인 것을 일예로 하여 설명한다.
터치스크린(130) 및 촉각센서(140)에 대한 자세한 설명은 도 2a, 도 2b 및 도 2c에서 도시된 바를 기초로 후술한다.
위치처리부(200)는 수신된 터치입력신호에 대응하는 접촉위치를 식별한다. 위치처리부(200)는 포인팅 오브젝트(1)의 위치를 좌표값으로 식별하는데, 좌표는 다양한 좌표계를 통해 표현 가능하며, 일예로 직교좌표계(x-y좌표)를 사용할 수 있다.
세기처리부(300)는 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석한다. 세기처리부(300)는 터치스크린(130)에 접촉한 포인팅 오브젝트(1)의 접촉힘의 세기는 촉각센서(140)의 출력신호를 기초로 획득한다. 그리고 이를 통해 접촉힘의 세기 패턴을 분석하게 된다. 접촉힘 세기 및 그 패턴 정보는 연산 수행으로써 얻어지거나 미리 저장된 데이터값을 검색함으로써 얻어질 수 있으며, 연산과 데이터값 검색을 동시에 이용할 수도 있다. 그리고 여기서 접촉힘의 세기 패턴은 연속적인 접촉힘 세기 변화를 유형화한 것으로서, 연속적인 접촉힘의 세기 변화에 따라 이에 비례하여 촉각센서(140)의 출력신호 세기가 연속적으로 변하게 되고(도 5 및 도 7) 이를 패턴 별로 유형화한 것이 접촉힘 세기 패턴으로 나타나게 되는 것이다.
제어부(400)는 식별된 접촉위치 및 분석된 접촉힘 세기 패턴을 기초로 터치스크린에 터치입력신호에 대응하는 이벤트를 결정한다. 본 발명의 바람직한 실시예에 따라 줌인/줌아웃, 화면이동 및 페이지이동 등의 이벤트를 결정하게 된다.
출력부(500)는 제어부(400)가 결정한 이벤트를 LCD, OLED, PDP 등을 통해 디스플레이 화면으로 출력한다.
도 2a는 촉각센서(140)를 가지는 터치스크린(130)을 가지는 터치입력부(100)의 기본구성을 도시한 것이다. 포인팅 오브젝트(1)에 의하여 접촉힘이 인가되는 터치입력부(100)는 그 위치정보를 인식하는 매체인 터치스크린(130)과 터치스크린(130)의 하부에 위치하고 접촉힘을 감지하여 소정의 신호를 출력하는 다수의 촉각센서(140)로 구성된다. 이에 더해 사용자에게 클릭 느낌을 주기 위한 진동 출력의 목적으로 액추에이터(160)가 구비될 수 있다.
터치스크린(130)은 이에 접촉하는 포인팅 오브젝트(1)의 위치를 근거로 디스플레이상에 각종 이벤트 실행 명령을 하기 위한 입력매체이다. 특히 소형 단말기 예컨대, 휴대폰, PMP 혹은 MP3 플레이어 등에 사용된다. 또한, 터치스크린은 LCD(Liquid Crystal Display), OLED(Organic Liquid Crystal Display), PDP(Plasma Display Panel), 전자잉크 표시장치 등에 사용되는 터치스크린이 될 수 있으며, 또는 가요성(flexible) 터치스크린이 될 수 있다. 터치스크린에 인가된 포인팅 오브젝트(1)의 위치정보 인식과 LCD, OLED, PDP 및 전자잉크 표시장치의 특징 등은 당 업자의 범위에서 널리 알려진 사항으로 여기에서 자세한 설명은 생략한다.
터치스크린(130)과 연결된 촉각센서(140)의 구체적 구성은 도 2c에서 설명한다.
도 2b는 촉각센서(140)를 가지는 터치입력부(100)가 휴대폰 단말기에 장착된 상태를 나타낸 정면도이다. 도 2b에 도시된 바와 같이 촉각센서(140) 및 액추에이터(160)가 하나의 단위체를 구성하여 복수의 단위체가 터치스크린 하부 가장자리 둘레에 배열되어 있다. 이는 디스플레이 기능 훼손을 방지하기 위한 구성임과 동시에 포인팅 오브젝트(1)의 멀티터치 또는 드래그 상황에서의 접촉힘 감지를 위한 구성이다.
도 2c는 촉각센서(140)의 측면도이다. 촉각센서(140)는 소정의 두께의 고분자 필름(141)상에 코팅층(142)과 금속층(143)이 순서대로 형성되고, 금속층(143) 상에 저항체(144)를 형성하여 제조된 상판;과 소정의 두께의 고분자 필름(151)상에 크팅층(152)과 금속층(153)이 순서대로 형성되고, 금속층(153) 상에 저항체(154)를 형성하여 제조된 하판;으로 이루어져 있으며, 상판의 저항체(144)와 하판의 저항체(154)가 대향되도록 스페이서(155)를 포함하여 본딩되어 구성된다.
도 3a는 본 발명의 바람직한 실시예에 따른 사용자 인터페이스 제공 방법을 나타낸 순서도이며, 도 3b는 임의의 축(X축)과 이에 직교하는 축(Y축)으로 표현되는 터치스크린 평면상에 접촉힘을 높이축으로 하는 3차원 좌표로서 이벤트 발생 조건을 도시한 것이다. 특히 도 3b의 3차원 좌표상에 도시된 두 개의 화살모양의 벡터는 위치좌표상에서의 드래그(접촉위치 변화) 여부 및 임계치 이상의 접촉힘 세 기의 인가 여부를 기준으로 하는 것으로 이해의 편의를 돕기 위해 나타낸 도면이다.
이하 도 3a와 도 3b를 참조하여 개략적인 이벤트 생성 순서를 설명한다.
터치입력부(100)의 터치스크린을 통해 사용자의 포인팅 오브젝트(1)의 접촉(S10)으로 감지되는 터치입력신호를 수신한다(S100). 다음, 위치처리부(200)를 통하여 수신된 터치입력신호에 대응하는 접촉위치를 식별한다(S200). 다음, 세기처리부(300)가 터치입력신호에 기초한 촉각센서(140)의 출력세기 변화에 대응하는 접촉힘 세기 패턴을 분석할 수 있게 된다(S300).
부연설명하면, 터치입력부(100)의 터치입력신호 수신 단계(S100)는, 오작동 발생 방지를 위해 접촉힘이 소정 최소치 이상인 경우에 한해 터치입력신호를 수신하는 것으로 할 수 있다(S50). 이 경우에 일정시간 주기로 접촉힘의 최소치 여부를 판단하여 최소치 미만인 경우라면 계속해서 무한루프를 도는 회로(미도시)를 통해 다음 단계(S100)의 진입을 차단하고 최소치 이상인 경우라면 다음 단계(S100)를 진행 한다.
이후 접촉힘의 세기가 최소치 이하로 떨어지는 시점에서 위치처리부(200)의 접촉위치 식별 단계(S200) 및 세기처리부(300)의 접촉힘의 세기 패턴 분석 단계(S300)가 수행되고 이때 최소치 이상을 갖기 시작한 시점에서 최소치 이하를 갖는 시점까지의 시간에 대한 접촉힘 변화가 접촉힘의 세기 패턴이 되는 것이다.
이와 달리 위치처리부(200)의 접촉위치 식별 단계(S200) 및 세기처리부(300)의 접촉힘의 세기 패턴 분석 단계(S300)가, 접촉힘이 소정 최소치 이상인 경우에 한해 수행되는 것으로도 할 수 있다. 도 3a의 흐름도는 전자를 따랐다(S50,150).
여기서, 줌인 또는 줌아웃 이벤트의 경우는 다음의 과정을 갖는다.
제어부(400)는 직교좌표계를 통해 식별된 접촉위치 변화 여부를 판단한다(S410). 그리고 접촉위치에 변화가 없다면 이후 세기처리부(300)에서 분석한 접촉힘 세기 패턴 정보를 입력 받아 접촉힘 세기에 따른 화면 크기를 결정하고 (S440) 출력부(500)를 통해 줌인 또는 줌아웃 이벤트를 발생시킨다(S540).
물론 줌인 또는 줌아웃 이벤트는 터치스크린상의 토글버튼(110)을 누르는 등의 사용자의 행위를 기초로 한 터치입력신호를 수신받아 그 선택이 선행되어야 한다.
그리고, 화면 이동 이벤트의 경우는 다음과 같다.
식별되는 접촉위치에 변화가 있다면(S410) 즉, 드래그 앤 드랍(drag and drop) 패턴인 경우에 세기처리부(300)에서 분석한 접촉힘 세기 패턴 정보를 입력 받아 접촉힘의 세기 패턴이 선정된 임계치 미만의 값을 가지는 경우(S420)에 한해 제 1 접촉위치에 대응하는 디스플레이 화면을 제 2 접촉위치에 대응하는 화면으로 갱신한다. 즉, 본 실시예는 출력부(500)를 통해 디스플레이 화면 이동 이벤트를 발생시킨다(S530).
그리고, 웹페이지의 페이지 이동 이벤트의 경우는 다음과 같다.
식별되는 접촉위치에 변화가 있다면(S410) 즉, 드래그 앤 드랍(drag and drop) 패턴인 경우에 세기처리부(300)에서 분석한 세기 패턴 정보를 입력 받아 접 촉힘의 세기 패턴이 선정된 임계치 이상의 값을 갖는지 판단한다(S420). 그리고 드래그 방향의 변화가 좌에서 우로의 변화, 우에서 좌로의 변화, 위에서 아래로의 변화, 아래에서 위로의 변화 및 대각선 방향의 변화중 어느 하나를 기초로 한 패턴 정보인 경우(S430)에 제 1 접촉위치에 대응하는 디스플레이 화면을 제 2 접촉위치에 대응하는 화면으로 갱신한다. 본 실시예는 출력부(500)를 통해 웹페이지 상의 이전 또는 다음 페이지의 전환 이벤트를 발생시키는데(S510, S520), 특히 드래그 방향이 우에서 좌인 경우에 이전페이지를 디스플레이한다(S520).
도 4 (a), (b) 및 (c)는 본 발명의 사용자 인터페이스 방법에 의한 줌인 및 줌아웃의 예를 설명하기 위한 디스플레이 화면을 나타낸 도면이다.
도 4 (a)에서 도 4 (b) 디스플레이 화면으로 갱신되는 방법은 도 3에서 설명한 바와 같이 터치스크린의 임의의 한점에 포인팅 오브젝트(1)가 접촉된다. 그리고 포인팅 오브젝트(1)가 떨어지면 접촉위치의 디스플레이 화면이 터치스크린의 중심점으로 좌표변환되며 줌아웃 디스플레이 화면으로 갱신된다. 다만 이 경우 화면 크기에 한계가 있으므로 한계를 벗어나는 범위에서는 최대 화면으로 갱신된다.
도 4 (b)에서 도 4 (c) 디스플레이 화면으로 갱신되는 줌인 이벤트 실행방법은 토글버튼(110)에 의한 줌인 이벤트를 선택하여 실행되는 것을 제외하고는 줌아웃 이벤트 발생과정과 동일하다.
도 5는 줌인 및 줌아웃 이벤트 실행에 있어 접촉힘 세기에 대한 촉각센서의 출력을 나타낸 그래프이다. 가로축은 접촉힘 세기를, 세로축은 촉각센서(140) 출력을 나타낸 것이고, 실선은 접촉힘과 촉각센서(140) 출력의 비례관계를 도시한 것이 다.
도 6 (a) 및 (b)는 본 발명의 사용자 인터페이스 방법에 의한 이벤트 중 드래그 앤 드랍에 의한 화면이동 이벤트를 설명하기 위한 디스플레이 화면을 나타낸 도면이다.
도 6 (a)에서 도 6 (b)의 디스플레이 화면으로 갱신되는 방법은 도 2에서 설명한 바와 같이 터치스크린의 임의의 한점에 포인팅 오브젝트(1)가 접촉된다. 그리고 임계치 미만의 접촉힘이 인가되고 드래그 앤 드랍 패턴이 생성되면 제 1 접촉위치에 대응하는 디스플레이 화면(a)이 제 2 접촉위치에 대응하는 디스플레이 화면(b)으로 갱신된다. 즉 화면의 이동이 있게 된다.
여기서 실시예에 따른 화면의 이해를 돕기 위해 인디케이터(120)를 표시하였다. 이에 기해 설명하면, 제 1 접촉위치 인디케이터(120)는 점선으로 표현하였으며, 제 2 접촉위치 인디케이터(120')는 실선으로 표현하였다.
도 7은 화면 이동 이벤트를 실행하기 위한 접촉힘의 세기 패턴 그래프이다. 가로축은 접촉힘 세기를, 세로축은 촉각센서(140) 출력을 나타낸 것이고, 실선은 접촉힘과 촉각센서(140) 출력의 비례관계를 도시한 것이다. 도 7에 도시된 바와 같이 촉각센서(140) 출력신호(굵은선)에 대응되는 접촉힘의 세기는 최소치 이상이면서 임계치 미만의 값이다.
도 8 (a), (b) 및 (c)는 본 발명의 사용자 인터페이스 방법에 의한 이벤트 중 드래그 앤 드랍에 의한 페이지 이동 이벤트를 설명하기 위한 디스플레이 화면을 나타낸 도면이다.
도 8 (a)는 첫 번째 페이지, 도 8 (b)는 두 번째 페이지, 그리고 도 8 (c) 세 번째 페이지이며, 그 순서는 시간 순서대로 나타낸 것이다. 즉 제 1 접촉위치에 대응되는 디스플레이 화면(a)에서 제 2 접촉위치에 대응되는 디스플레이 화면(b)으로 페이지 갱신 및 그 반대로의 갱신 이벤트를 도시한 것이다. 갱신되는 방법은 도 2에서 설명한 바와 같이 터치스크린의 임의의 한점에 포인팅 오브젝트(1)가 접촉된다. 그리고 드래그 앤 드랍 패턴이 좌에서 우로 생성되고 접촉힘이 임계치 이상을 가지고 일정시간 경과 후 그 세기가 소정 최소치 이하로 떨어지면 제 1 접촉위치에 대응하는 디스플레이 화면(a)이 제 2 접촉위치에 대응하는 디스플레이 화면(b)으로 갱신된다. 즉 현재 페이지(첫 번째 페이지) 디스플레이 화면이 다음 페이지(두 번째 페이지) 디스플레이 화면으로 전환이 있게 된다. 반대로 디스플레이 화면(b)에서 제 1접촉위치에서 제 2접촉위치로 드래그 앤 드랍 패턴이 우에서 좌로 생성되고 접촉힘 패턴에서 힘세기가 임계치 이상을 가졌을 경우 이전 페이지(세 번째 페이지)인 디스플레이 화면(c)으로 갱신된다.
여기서 실시예에 따른 화면 설명을 위해 인디케이터(120)를 표시하였다. 이에 기해 설명하면, 제 1 접촉위치 인디케이터(120)는 점선으로 표현하였으며, 제 2 접촉위치 인디케이터(120')는 실선으로 표현하였다.
도 9는 페이지 이동 이벤트를 실행하기 위한 접촉힘 세기 패턴 그래프이다. 가로축은 시간을, 세로축은 접촉힘을 나타낸 것이고 실선의 그래프는 시간에 따른 접촉힘의 변화를 도시한 것이다. 그래프는 도 8에서 상술한 접촉힘 세기 패턴을 보여주고 있다.
본 발명은 도면상에 나타난 웹페이지에서의 실시예에 한정되지 않으며, 사진, 게임 등을 포함한 각종 디스플레이 화면에 적용될 수 있다. 또한 상술한 실시예뿐만 아니라 본 발명의 사상 내에서 당업자에 의한 변형이 가능하다.
또한 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드디스크, 플로피디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
도 1은 본발명의 바람직한 실시예에 따른 사용자 인터페이스 장치의 구성을 나타낸 블록도,
도 2a는 도 1의 터치입력부를 나타낸 기본 구성도,
도 2b는 촉각센서가 구비된 터치스크린이 휴대폰 단말기에 장착된 모습을 나타낸 정면도,
도 2c는 도 2a 촉각센서를 나타낸 측면도,
도 3a는 본발명의 바람직한 실시예에 따른 사용자 인터페이스 제공 방법을 나타낸 순서도,
도 3b는 임의의 축(X축)과 이에 직교하는 축(Y축)으로 표현되는 터치스크린 평면상에 접촉힘을 높이축으로 하는 3차원 좌표로서 이벤트 발생 조건을 나타낸 도면,
도 4의 (a), (b) 및 (c)는 본발명의 사용자 인터페이스 방법에 의한 이벤트중 줌인 및 줌아웃 이벤트를 설명하기 위한 디스플레이 화면을 나타낸 도면,
도 5는 줌인 및 줌아웃 이벤트 실행에 있어 접촉힘 세기에 대한 촉각센서의 출력을 나타낸 그래프,
도 6의 (a) 및 (b)는 본발명의 사용자 인터페이스 방법에 의한 이벤트 중 드래그 앤 드랍에 의한 화면이동 이벤트를 설명하기 위한 디스플레이 화면을 나타낸 도면,
도 7은 화면이동 이벤트를 실행하기 위한 접촉힘의 세기 패턴을 나타낸 그래 프,
도 8의 (a), (b) 및 (c)는 본 발명의 사용자 인터페이스 방법에 의한 이벤트 중 드래그 앤 드랍에 의한 페이지 이동 이벤트를 설명하기 위한 디스플레이 화면을 나타낸 도면,
도 9는 페이지 이동 이벤트를 실행하기 위한 접촉힘의 세기 패턴을 나타낸 그래프이다.
<도면의 주요 부분에 대한 부호의 설명>
100: 터치입력부
110: 토글버튼
120: 제 1 접촉위치의 인디케이터 120': 제 2 접촉위치의 인디케이터
130: 터치스크린 140: 촉각센서 160: 액추에이터 170: 기준면
200: 위치처리부
300: 세기처리부
400: 제어부
500: 출력부
600: 휴대폰 단말기

Claims (14)

  1. 접촉위치 및 접촉힘을 감지할 수 있는 터치스크린을 갖는 터치입력부의 사용자 인터페이스 제공 방법에 있어서,
    상기 터치입력부(100)를 통하여 사용자의 포인팅 오브젝트(1)의 접촉으로 감지되는 터치입력신호를 수신하는 단계(S100);
    위치처리부(200)가 상기 수신된 터치입력신호에 대응하는 접촉위치를 식별하는 단계(S200) 및 세기처리부(300)가 상기 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석하는 단계(S300)가 동시 또는 순차적으로 실행되는 단계;
    제어부(400)가 상기 식별된 접촉위치 및 상기 분석된 접촉힘의 세기 패턴을 기초로 상기 터치입력신호에 대응하는 소정의 이벤트를 결정하는 단계(S400);및
    출력부(500)가 상기 결정된 이벤트를 디스플레이 화면으로 출력하는 단계(S500);를 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  2. 제 1항에 있어서,
    상기 터치입력부(100)의 터치입력신호 수신 단계(S100)는,
    상기 접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉 힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  3. 제 1항에 있어서,
    상기 위치처리부(200)의 접촉위치 식별 단계(S200)는,
    접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  4. 제 1항에 있어서,
    상기 세기처리부(300)의 접촉세기 식별 단계(S300)는,
    접촉힘이 소정 최소치 이상인 경우에 시작하여 일정시간이 지나 최소치 이하인 경우에 한해 수행되는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  5. 제 1항에 있어서,
    상기 이벤트는,
    상기 식별된 접촉 위치를 터치스크린(130)의 중심으로 좌표변환하여 상기 디 스플레이 화면을 갱신하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  6. 제 1항에 있어서,
    상기 이벤트는,
    상기 디스플레이 화면을 줌인 또는 줌아웃하여 상기 디스플레이 화면을 갱신하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  7. 제 6항에 있어서,
    상기 터치스크린(130)은 상기 줌인 이벤트 및 상기 줌아웃 이벤트 중 어느 하나를 선택할 수 있는 토글버튼(110)을 디스플레이하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  8. 제 6항에 있어서,
    상기 접촉힘의 세기 패턴은 상기 수신된 터치입력신호에 대한 접촉힘 세기 정보를 포함하고,
    상기 디스플레이 화면은 상기 접촉힘 세기 정보에 비례하여 갱신되는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  9. 제 1항에 있어서,
    상기 접촉힘의 세기 패턴은, 제 1 터치입력신호에 대응하는 제 1 접촉위치 및 제 2 터치입력신호에 대응하는 제 2 접촉위치에 대한 드래그 앤 드랍 패턴을 포함하고,
    상기 이벤트는, 상기 제 1 접촉위치에 대응하는 디스플레이 화면을 상기 제 2 접촉위치에 대응하는 디스플레이 화면으로 갱신하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  10. 제 9항에 있어서,
    상기 드래그 앤드 드랍 패턴은, 제 1 접촉위치에서 제 2 접촉위치로의 변화가 좌에서 우로의 변화, 우에서 좌로의 변화, 위에서 아래로의 변화, 아래에서 위로의 변화 및 대각선 방향의 변화중 어느 하나를 기초로 한 패턴 정보인 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  11. 제 9항에 있어서,
    상기 제 2 접촉위치에 대응하는 디스플레이 화면은,
    상기 디스플레이 화면 상의 이전 페이지 또는 다음 페이지에 대한 상기 디스플레이 화면인 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법.
  12. 사용자의 포인팅 오브젝트(1) 접촉으로 감지되는 터치입력신호를 수신하는 촉각센서(140)를 구비한 터치입력부(100);
    상기 수신된 터치입력신호에 대응하는 접촉위치를 식별하는 위치처리부(200);
    상기 촉각센서(140)의 출력신호에 기초하여 상기 수신된 터치입력신호에 대응하는 접촉힘의 세기 패턴을 분석하는 세기처리부(300);
    상기 식별된 접촉위치 및 상기 분석된 접촉힘의 세기 패턴을 기초로 상기 터치입력신호에 대응하는 소정의 이벤트를 결정하는 제어부(400);및
    상기 결정된 이벤트를 디스플레이 화면으로 출력하는 출력부(500);를 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 장치.
  13. 제 12항에 있어서,
    6상기 터치입력부(100)는 위치 및 힘을 감지할 수 있는 접촉저항 방식의 터치스크린 또는 정전용량 방식의 터치스크린을 포함하는 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 장치.
  14. 제 12항에 있어서,
    상기 터치입력신호는 상기 접촉힘 및 상기 접촉위치에 대응하는 터치입력신호 정보인 것을 특징으로 하는 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 장치.
KR1020090047981A 2009-06-01 2009-06-01 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치 KR20100129424A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090047981A KR20100129424A (ko) 2009-06-01 2009-06-01 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US12/534,986 US20100302177A1 (en) 2009-06-01 2009-08-04 Method and apparatus for providing user interface based on contact position and intensity of contact force on touch screen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090047981A KR20100129424A (ko) 2009-06-01 2009-06-01 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치

Publications (1)

Publication Number Publication Date
KR20100129424A true KR20100129424A (ko) 2010-12-09

Family

ID=43219662

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090047981A KR20100129424A (ko) 2009-06-01 2009-06-01 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치

Country Status (2)

Country Link
US (1) US20100302177A1 (ko)
KR (1) KR20100129424A (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140125232A (ko) * 2013-04-18 2014-10-28 삼성전자주식회사 터치 오 입력을 방지하는 전자 장치 및 방법
WO2014194192A1 (en) * 2013-05-30 2014-12-04 David Andrews Multi-dimensional trackpad
US9513707B2 (en) 2013-10-08 2016-12-06 Tk Holdings Inc. Systems and methods for locking an input area associated with detected touch location in a force-based touchscreen
US10466826B2 (en) 2014-10-08 2019-11-05 Joyson Safety Systems Acquisition Llc Systems and methods for illuminating a track pad system
KR102262674B1 (ko) 2020-03-03 2021-06-09 경희대학교 산학협력단 힘 측정장치 및 측정방법
US11422629B2 (en) 2019-12-30 2022-08-23 Joyson Safety Systems Acquisition Llc Systems and methods for intelligent waveform interruption

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5482023B2 (ja) * 2009-08-27 2014-04-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US20110267294A1 (en) * 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
US9692411B2 (en) 2011-05-13 2017-06-27 Flow Control LLC Integrated level sensing printed circuit board
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
EP2562628A1 (en) * 2011-08-26 2013-02-27 Sony Ericsson Mobile Communications AB Image scale alteration arrangement and method
WO2013056157A1 (en) * 2011-10-13 2013-04-18 Autodesk, Inc. Proximity-aware multi-touch tabletop
KR20130090138A (ko) * 2012-02-03 2013-08-13 삼성전자주식회사 다중 터치 패널 운용 방법 및 이를 지원하는 단말기
EP2629186A1 (de) * 2012-02-15 2013-08-21 Siemens Aktiengesellschaft Handsteuergerät zur Steuerung einer industriellen Vorrichtung und Verfahren zum Verändern eines Vorgabewertes
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
EP2847658B1 (en) 2012-05-09 2017-06-21 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN107728906B (zh) * 2012-05-09 2020-07-31 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
EP2847660B1 (en) 2012-05-09 2018-11-14 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
JP6273263B2 (ja) 2012-05-09 2018-01-31 アップル インコーポレイテッド ユーザ接触に応答して追加情報を表示するための、デバイス、方法、及びグラフィカルユーザインタフェース
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN102938589A (zh) * 2012-11-12 2013-02-20 浙江大学 基于无线能量传输的无线无源可变输入装置
CN105264479B (zh) 2012-12-29 2018-12-25 苹果公司 用于对用户界面分级结构进行导航的设备、方法和图形用户界面
JP6093877B2 (ja) 2012-12-29 2017-03-08 アップル インコーポレイテッド 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース
JP6158947B2 (ja) 2012-12-29 2017-07-05 アップル インコーポレイテッド タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
CN105144057B (zh) 2012-12-29 2019-05-17 苹果公司 用于根据具有模拟三维特征的控制图标的外观变化来移动光标的设备、方法和图形用户界面
US20150268827A1 (en) * 2014-03-24 2015-09-24 Hideep Inc. Method for controlling moving direction of display object and a terminal thereof
EP3248366A4 (en) * 2015-01-21 2018-07-25 Motorola Solutions, Inc. Method and apparatus for controlling user interface elements on a touch screen
TWI598785B (zh) * 2015-01-29 2017-09-11 政美應用股份有限公司 觸控面板之檢測方法及裝置
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
CN104866090A (zh) * 2015-03-12 2015-08-26 镇江南方电子有限公司 基于无线能量传输的无线人体交互装置
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
CN105426741A (zh) * 2015-12-21 2016-03-23 小米科技有限责任公司 屏幕解锁方法、装置及终端

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US8059102B2 (en) * 2006-06-13 2011-11-15 N-Trig Ltd. Fingertip touch recognition for a digitizer
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140125232A (ko) * 2013-04-18 2014-10-28 삼성전자주식회사 터치 오 입력을 방지하는 전자 장치 및 방법
US10067567B2 (en) 2013-05-30 2018-09-04 Joyson Safety Systems Acquistion LLC Multi-dimensional trackpad
WO2014194192A1 (en) * 2013-05-30 2014-12-04 David Andrews Multi-dimensional trackpad
US10817061B2 (en) 2013-05-30 2020-10-27 Joyson Safety Systems Acquisition Llc Multi-dimensional trackpad
US9829980B2 (en) 2013-10-08 2017-11-28 Tk Holdings Inc. Self-calibrating tactile haptic muti-touch, multifunction switch panel
US10007342B2 (en) 2013-10-08 2018-06-26 Joyson Safety Systems Acquistion LLC Apparatus and method for direct delivery of haptic energy to touch surface
US9898087B2 (en) 2013-10-08 2018-02-20 Tk Holdings Inc. Force-based touch interface with integrated multi-sensory feedback
US10180723B2 (en) 2013-10-08 2019-01-15 Joyson Safety Systems Acquisition Llc Force sensor with haptic feedback
US10241579B2 (en) 2013-10-08 2019-03-26 Joyson Safety Systems Acquisition Llc Force based touch interface with integrated multi-sensory feedback
US9513707B2 (en) 2013-10-08 2016-12-06 Tk Holdings Inc. Systems and methods for locking an input area associated with detected touch location in a force-based touchscreen
US10466826B2 (en) 2014-10-08 2019-11-05 Joyson Safety Systems Acquisition Llc Systems and methods for illuminating a track pad system
US11422629B2 (en) 2019-12-30 2022-08-23 Joyson Safety Systems Acquisition Llc Systems and methods for intelligent waveform interruption
KR102262674B1 (ko) 2020-03-03 2021-06-09 경희대학교 산학협력단 힘 측정장치 및 측정방법

Also Published As

Publication number Publication date
US20100302177A1 (en) 2010-12-02

Similar Documents

Publication Publication Date Title
KR20100129424A (ko) 터치스크린의 접촉위치 및 접촉힘의 세기를 이용한 사용자 인터페이스 제공 방법 및 장치
US11449224B2 (en) Selective rejection of touch contacts in an edge region of a touch surface
US20090066659A1 (en) Computer system with touch screen and separate display screen
US9329714B2 (en) Input device, input assistance method, and program
JP4795343B2 (ja) 二重モードデジタイザの自動切り替え
KR101270847B1 (ko) 터치 감지 입력 장치용 제스처
US20050046621A1 (en) Method and device for recognizing a dual point user input on a touch based user input device
JP2009151505A (ja) 情報処理装置、情報処理方法及びプログラム
JP2011221640A (ja) 情報処理装置、情報処理方法およびプログラム
JP2011014044A (ja) 操作制御装置、操作制御方法およびコンピュータプログラム
US10620758B2 (en) Glove touch detection
US10564770B1 (en) Predictive touch detection
CN104750299A (zh) 多触控屏幕装置及多触控屏幕相邻交接处侦测判断的方法
JP2013122625A (ja) 情報処理装置、入力装置、入力装置モジュール、プログラム、入力処理方法。
CN104808936A (zh) 界面操作方法与应用该方法的便携式电子装置
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
KR20080105724A (ko) 터치 패널을 갖는 통신 단말기 및 그의 터치 좌표값 산출방법
JP6370118B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
US20110119579A1 (en) Method of turning over three-dimensional graphic object by use of touch sensitive input device
JP2014006748A (ja) 電子機器、機器及び方法
AU2013100574B4 (en) Interpreting touch contacts on a touch surface
US20080158187A1 (en) Touch control input system for use in electronic apparatuses and signal generation method thereof
JP5833511B2 (ja) マルチタッチ状態下で押圧位置を判別可能なユーザインタフェース装置、プログラム及び機能発動方法
AU2015271962B2 (en) Interpreting touch contacts on a touch surface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee