KR20140005356A - Using pressure differences with a touch-sensitive display screen - Google Patents

Using pressure differences with a touch-sensitive display screen Download PDF

Info

Publication number
KR20140005356A
KR20140005356A KR1020137032030A KR20137032030A KR20140005356A KR 20140005356 A KR20140005356 A KR 20140005356A KR 1020137032030 A KR1020137032030 A KR 1020137032030A KR 20137032030 A KR20137032030 A KR 20137032030A KR 20140005356 A KR20140005356 A KR 20140005356A
Authority
KR
South Korea
Prior art keywords
pressure
screen
data points
touch
touch sensitive
Prior art date
Application number
KR1020137032030A
Other languages
Korean (ko)
Other versions
KR101548852B1 (en
Inventor
스테픈 씨. 무어
Original Assignee
모토로라 모빌리티 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 모토로라 모빌리티 엘엘씨 filed Critical 모토로라 모빌리티 엘엘씨
Publication of KR20140005356A publication Critical patent/KR20140005356A/en
Application granted granted Critical
Publication of KR101548852B1 publication Critical patent/KR101548852B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

터치 감지 스크린(102)에 의해 검출된 압력의 차이들에 응답하는 사용자 인터페이스가 개시된다. 사용자는 스크린(102)을 "약하게" 터치함으로써 일 타입의 사용자 인터페이스 액션을 선택하고(310), 더 큰 압력을 가함으로써 다른 타입의 액션을 선택한다(312). 실시예들은 싱글 터치들에, 터치 감지 스크린의 표면을 가로질러 연장하는 제스처 터치들에 그리고 터치의 과정 동안 사용자가 가하는 압력이 변하는 터치들에 응답할 수 있다(504). 일부 실시예들은 사용자가 가하는 압력을 얼마나 빠르게 변경하는지에 대해 응답한다(506). 일부 실시예들에서, 사용자의 입력의 위치 및 압력은 저장된 제스처 프로필과 비교된다(604). 입력이 저장된 제스처 프로필과 "충분히 밀접하게" 매칭되는 경우에만 액션이 취해진다(606). 일부 실시예들에서는, 압력이 약한 누름과 강한 누름 사이의 임계치를 초과할 때 사용자에게 통지가 전송된다(312c).A user interface is disclosed that responds to differences in pressure detected by the touch sensitive screen 102. The user selects one type of user interface action by “weak” touching the screen 102 (310) and selects another type of action (312) by applying greater pressure. Embodiments may respond 504 to single touches, gesture touches extending across the surface of the touch sensitive screen, and to touches that change the pressure exerted by the user during the course of the touch. Some embodiments respond 506 to how quickly the pressure applied by the user changes. In some embodiments, the position and pressure of the user's input is compared with the stored gesture profile (604). An action is taken 606 only if the input matches "close enough" with the stored gesture profile. In some embodiments, a notification is sent 312c to the user when the pressure exceeds a threshold between a weak press and a strong press.

Description

터치 감지 디스플레이 스크린에서의 압력차 이용{USING PRESSURE DIFFERENCES WITH A TOUCH-SENSITIVE DISPLAY SCREEN}USING PRESSURE DIFFERENCES WITH A TOUCH-SENSITIVE DISPLAY SCREEN}

본 발명은 일반적으로 개인용 전자 장치에 관한 것으로서, 구체적으로는 터치 감지 디스플레이 스크린용 사용자 인터페이스에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention generally relates to personal electronic devices, and more particularly to a user interface for a touch sensitive display screen.

터치 감지 디스플레이 스크린들은 많은 개인용 전자 장치의 공지 컴포넌트이다. (통상적으로 손가락 또는 스타일러스를 이용하는) 사용자의 터치를 인식하고 그에 응답함으로써, 이들 스크린은 사용자 입력을 수집할 뿐만 아니라, 많은 애플리케이션에 대해 매우 매력적인 통합 방식으로 장치의 출력을 제공한다.Touch sensitive display screens are a known component of many personal electronic devices. By recognizing and responding to a user's touch (typically using a finger or stylus), these screens not only collect user input, but also provide the output of the device in a very attractive, integrated manner for many applications.

초기의 대중적인 터치 감지 디스플레이 스크린들은 한 번에 하나의 터치 위치만을 신뢰성 있게 인식할 수 있었다. 다수의 동시 터치의 존재시에, 이러한 디스플레이 스크린들은 혼란스럽고 예측 불가능할 것이다. 그러나, 현재, 많은 장치는 여러 개의 동시 터치를 신뢰성 있게 추적하고 사용자가 가하는 전체 압력을 측정할 수 있는 스크린들을 포함한다.Early popular touch-sensitive display screens could reliably recognize only one touch position at a time. In the presence of multiple simultaneous touches, such display screens will be confusing and unpredictable. However, at present, many devices include screens that can reliably track several simultaneous touches and measure the overall pressure exerted by the user.

터치 감지 디스플레이 스크린들의 매력적인 양태들 중 하나는 이들이 적어도 일부 예들에서 더 전통적인 개인용 컴퓨터에서 발견되는 키보드 및 포인팅 장치(예로서, 마우스 또는 트랙볼) 양자를 대체할 수 있다는 것이다. 이것은 키보드가 존재하더라도 너무 작아서 10 손가락 타이핑에 적합하지 않은 스마트폰들과 같은 매우 작은 장치들에 대해 스크린들이 특히 유용하게 한다.One of the attractive aspects of touch sensitive display screens is that they can replace both a keyboard and pointing device (eg, a mouse or trackball) found in at least some examples on more traditional personal computers. This makes the screens particularly useful for very small devices, such as smartphones that are too small to fit 10 finger typing even if a keyboard is present.

당연히, 터치 감지 스크린들에 대한 사용자 인터페이스 양식들의 개발은 고정 키보드 및 마우스에 의해 개척된 용도들을 따랐다. 사람들은 마우스를 이용하여 디스플레이 스크린 상의 커서를 제어하는 것으로부터 간단히 스크린을 터치하고 커서를 필요한 곳으로 드래그하는 것으로 매우 쉽게 전이한다.Naturally, the development of user interface forms for touch sensitive screens has followed the uses pioneered by fixed keyboards and mice. People transition very easily from controlling the cursor on the display screen using a mouse to simply touching the screen and dragging the cursor to where it is needed.

발명의 요약Summary of the Invention

위의 사정들 및 다른 사정들이 명세서, 도면 및 청구범위를 참조함으로써 이해될 수 있는 본 발명에 의해 다루어진다. 본 발명의 양태들에 따르면, 압력차에 응답하는 일부 최신 터치 감지 스크린들의 능력을 이용하여 장치의 사용자 인터페이스를 향상시킨다. 사용자는 스크린을 "약하게" 터치함으로써 일 타입의 사용자 인터페이스 액션을 선택하고, 더 큰 압력을 가함으로써 다른 타입의 액션을 선택한다. 예를 들어, 약한 터치는 마우스 버튼으로부터의 통상적인 "싱글 클릭"으로 해석될 수 있는 반면, 더 강한 터치는 "더블 클릭"으로 작용할 수 있다. 다른 예에서, 드로잉 애플리케이션 내에서, 사용자는 약한 터치를 이용하여 드로잉하고, 더 강한 터치를 이용하여 삭제한다.The above and other circumstances are addressed by the present invention, which can be understood by reference to the specification, drawings and claims. In accordance with aspects of the present invention, the ability of some modern touch sensitive screens to respond to pressure differences is used to enhance the user interface of the device. The user selects one type of user interface action by "weak" touching the screen and selects another type of action by applying greater pressure. For example, a weak touch can be interpreted as a conventional "single click" from a mouse button, while a stronger touch can act as a "double click." In another example, within a drawing application, a user draws with a weak touch and deletes with a stronger touch.

일부 터치 스크린들은 사용자 압력들의 범위를 신뢰성 있게 보고한다. 본 발명의 실시예들은 정확히 사용자가 스크린을 얼마나 강하게 누르는지에 따라 사용자로 하여금 3개 이상의 개별 액션을 선택하게 함으로써 이러한 범위를 이용할 수 있다. 예를 들어, 사용자가 미디어 프레젠테이션을 통해 빨리 감기를 행하는 경우, 빨리 감기의 속도는 가하는 압력의 양에 따라 직접 변할 수 있다.Some touch screens reliably report a range of user pressures. Embodiments of the present invention can exploit this range by allowing a user to select three or more individual actions, depending on exactly how hard the user presses the screen. For example, if a user fast forwards through a media presentation, the speed of the fast forward may change directly depending on the amount of pressure applied.

본 발명의 양태들은 싱글 터치 양식들로 한정되지 않는다. 대신, 실시예들은 싱글 터치들에, 터치 감지 스크린의 표면을 가로질러 연장하는 제스처 터치들에 그리고 터치의 과정 동안 사용자가 가하는 압력이 변하는 터치들에 응답할 수 있다. 일부 실시예들은 사용자가 가하는 압력을 얼마나 빠르게 변경하는지에 대해 응답한다.Aspects of the present invention are not limited to single touch forms. Instead, embodiments may respond to single touches, gesture touches extending across the surface of the touch sensitive screen, and to touches that change the pressure exerted by the user during the course of the touch. Some embodiments respond to how quickly the pressure applied by the user changes.

일부 실시예들에서, 사용자의 입력의 위치 및 압력은 저장된 제스처 프로필과 비교된다. 입력이 저장된 제스처 프로필과 "충분히 밀접하게" 매칭되는 경우에만 액션이 취해진다. 예를 들어, 사용자가 그의 이름을 서명하고, 이어서 서명이 저장된 서명 프로필과 비교된다. 사용자는 서명이 매칭되는 경우에 제어 정보에 대한 액세스를 제공받는다.In some embodiments, the position and pressure of the user's input is compared with the stored gesture profile. An action is taken only if the input matches "close enough" with the stored gesture profile. For example, a user signs his name, which is then compared with the signature profile stored. The user is provided access to the control information if the signature matches.

일부 실시예들에서는, 압력이 약한 누름과 강한 누름 사이의 임계치를 초과할 때 사용자에게 통지가 전송된다. 예를 들어, 압력이 강할 때 스크린 상에 아이콘이 표시될 수 있다. (이것은 통상적인 키보드와 관련하여 때때로 표시되는 "CAPS LOCK" 아이콘과 유사하다.) 사운드가 재생되거나, 햅틱 피드백(사용자가 느끼는 "버즈(buzz)")이 제공될 수도 있다.In some embodiments, a notification is sent to the user when the pressure exceeds a threshold between weak and strong presses. For example, an icon may be displayed on the screen when the pressure is high. (This is similar to the "CAPS LOCK" icon that is sometimes displayed in connection with a conventional keyboard.) Sound may be played or haptic feedback ("buzz" felt by the user) may be provided.

다양한 터치 감지 스크린들은 다양한 기술들을 구현하며, 따라서 이들은 이들이 상이한 압력들을 측정하고 보고하는 방식에서 차이가 있다. 본 발명의 양태들은 임의의 압력 감지 스크린과 함께 동작한다.Various touch sensitive screens implement various techniques, and therefore they differ in the way they measure and report different pressures. Aspects of the invention operate with any pressure sensitive screen.

첨부된 청구항들이 본 발명의 특징들을 구체적으로 설명하지만, 본 발명은 그의 목적들 및 장점들과 함께 첨부 도면들과 관련하여 이루어지는 아래의 상세한 설명으로부터 최상으로 이해될 수 있다. 도면들에서:
도 1은 본 발명과 함께 사용될 수 있는 예시적인 개인용 전자 장치의 개략도이다.
도 2a 및 2b는 상이한 압력들에 응답하는 터치 감지 스크린의 양식화된 표현들이다.
도 3a 및 3b는 터치 감지 스크린에 의한 압력 보고를 이용하는 제1의 예시적인 사용자 인터페이스의 흐름도를 함께 형성한다.
도 4a 및 4b는 도 3a 및 3b의 사용자 인터페이스 방법의 특정 실시예의 흐름도를 함께 형성한다.
도 5는 터치 압력의 변화율에 응답하는 예시적인 사용자 인터페이스의 흐름도이다.
도 6은 본 발명의 가르침을 이용하여 사용자의 터치 입력과 저장된 제스처 프로필을 비교하는 예시적인 사용자 인터페이스의 흐름도이다.
While the appended claims specifically illustrate features of the present invention, the invention can be best understood from the following detailed description taken in conjunction with the accompanying drawings, together with their objects and advantages. In the drawings:
1 is a schematic diagram of an exemplary personal electronic device that may be used with the present invention.
2A and 2B are stylized representations of a touch sensitive screen in response to different pressures.
3A and 3B together form a flow chart of a first exemplary user interface using pressure reporting by a touch sensitive screen.
4A and 4B together form a flowchart of a particular embodiment of the user interface method of FIGS. 3A and 3B.
5 is a flowchart of an example user interface responsive to a rate of change of touch pressure.
6 is a flowchart of an exemplary user interface for comparing a user's touch input with a stored gesture profile using the teachings of the present invention.

동일한 참조 번호들이 동일한 요소들을 지시하는 도면들을 참조하면, 본 발명은 적절한 환경에서 구현되는 것으로 도시되어 있다. 아래의 설명은 본 발명의 실시예들에 기초하며, 본 명세서에 명시적으로 설명되지 않는 대안 실시예들과 관련하여 본 발명을 한정하는 것으로 해석되지 않아야 한다.Referring to the drawings, wherein like reference numerals designate like elements, the invention is shown to be implemented in a suitable environment. The following description is based on the embodiments of the present invention and should not be construed as limiting the invention in connection with alternative embodiments not expressly described herein.

도 1은 본 발명의 일 실시예를 포함하는 대표적인 개인용 전자 장치(100)(예로서, 셀룰러 전화, 개인 휴대 단말기 또는 개인용 컴퓨터)를 도시한다. 도 1은 장치(100)를 자신의 메인 스크린(102)을 자신의 사용자에게 제공하는 셀룰러 전화로서 도시한다. 통상적으로, 메인 스크린(102)은 사용자와의 최고 충실도 상호작용을 위해 사용된다. 예를 들어, 메인 스크린(102)은 비디오 또는 정지 이미지들을 표시하는 데 사용되고, 구성 설정들을 변경하기 위한 사용자 인터페이스의 일부이며, 호출 로그들 및 콘택 리스트들을 보는 데 사용된다. 이러한 상호작용들을 지원하기 위하여, 메인 스크린(102)은 고해상도를 가지며, 장치(100) 내에 적절히 수용될 수 있을 정도로 크다. 일부 상황들에서는, 사용자가 메인 스크린(102)보다 훨씬 더 큰 스크린에 대한 액세스를 갖는 것이 유용할 것이다. 이러한 상황들을 위해, 더 큰 외부 디스플레이가 (예를 들어, 도킹 스테이션을 통해) 전자 장치(100)에 접속되고, 그에 의해 제어될 수 있다. 장치(100)는 상태 메시지들을 제공하기 위한 제2 및 가능하다면 제3 스크린을 가질 수 있다. 이들 스크린은 일반적으로 메인 스크린(102)보다 작다. 이들은 본 설명의 나머지에서 안전하게 무시될 수 있다.1 illustrates an exemplary personal electronic device 100 (eg, a cellular phone, personal digital assistant, or personal computer) incorporating one embodiment of the present invention. 1 shows the device 100 as a cellular phone providing its home screen 102 to its user. Typically, home screen 102 is used for the highest fidelity interaction with a user. For example, main screen 102 is used to display video or still images, is part of the user interface for changing configuration settings, and is used to view call logs and contact lists. To support these interactions, the main screen 102 has a high resolution and is large enough to be properly accommodated within the device 100. In some situations, it may be useful for a user to have access to a screen that is much larger than the main screen 102. For such situations, a larger external display can be connected to and controlled by the electronic device 100 (eg, via a docking station). The device 100 may have a second and possibly third screen for providing status messages. These screens are generally smaller than the main screen 102. These can be safely ignored in the remainder of this description.

스크린(102)은 터치 감지 스크린이다. 장치의 사용자가 하나의 포인트에서 또는 다수의 포인트에서 스크린(102)에 압력을 가할 때, 스크린(102)은 터치들의 위치들을 보고한다. 터치와 관련된 압력도 보고된다. 일부 장치들에서, 스크린(102) 자체가 압력 센서들을 포함하며, 각각의 포인트에 인가되는 압력을 측정할 수 있다. 다른 장치들에서는, 별도의 압력 센서들(도시되지 않음)이 국지적인 압력 측정들 또는 스크린(102)에 전체적으로 인가된 압력의 총량을 보고한다. 과다한 언어를 사용하지 않고서 이들 사례 모두를 커버하기 위하여, 본 설명은 장치(100)의 어떤 컴포넌트들이 압력을 실제로 측정하고 보고하는지에 관계없이 "스크린(102)이 압력을 보고한다"는 속기 문구를 이용한다.Screen 102 is a touch sensitive screen. When the user of the device presses the screen 102 at one point or at multiple points, the screen 102 reports the positions of the touches. The pressure associated with the touch is also reported. In some devices, the screen 102 itself includes pressure sensors and can measure the pressure applied at each point. In other devices, separate pressure sensors (not shown) report the total amount of pressure applied locally to the pressure measurements or screen 102. To cover both of these cases without using excessive language, the present description uses the shorthand phrase "screen 102 reports pressure" regardless of which components of device 100 actually measure and report pressure. I use it.

본 발명은 표시 기능을 갖지 않는 터치 패드들과 같은, 터치 감지 디스플레이 스크린이 아닌 터치 감지 스크린들에도 적용된다는 점에 유의한다. 이들은 오늘날 덜 일반화되고 있으며, 본 설명은 터치 감지 디스플레이 스크린들인 예들에 집중한다.Note that the present invention also applies to touch sensitive screens that are not touch sensitive display screens, such as touch pads that do not have a display function. These are becoming less common today, and the description focuses on examples which are touch sensitive display screens.

오늘날, 터치 감지 스크린들(102)을 구현하기 위해 다양한 기술들이 이용되고 있다. 본 발명은 모든 기존의 그리고 임의의 미래에 개발될 터치 감지 기술들과 함께 동작하는 것을 의도한다.Today, various techniques are used to implement the touch sensitive screens 102. The present invention is intended to work with all existing and any future touch sensing technologies to be developed.

개인용 전자 장치(100)의 통상적인 사용자 인터페이스는 터치 감지 스크린(102)에 더하여 키패드 및 다른 사용자 입력 장치들을 포함한다. 키패드는 물리 또는 가상 키패드일 수 있으며, 가상 키패드는 터치 감지 스크린(102) 상에 표시되는 가상 키들을 포함한다. 일부 장치들(100)은 장치의 사용자에게 통지하기 위한 오디오 출력 및 햅틱 장치를 포함한다.A typical user interface of personal electronic device 100 includes a keypad and other user input devices in addition to touch sensitive screen 102. The keypad may be a physical or virtual keypad, which includes virtual keys displayed on the touch sensitive screen 102. Some devices 100 include an audio output and a haptic device to notify a user of the device.

도 1은 개인용 전자 장치(100)의 더 중요한 내부 컴포넌트들 중 일부를 도시한다. 네트워크 인터페이스(104)는 미디어 프레젠테이션들, 관련 정보 및 다운로드 요청들을 송수신한다. 프로세서(106)는 장치(100)의 동작들을 제어하고, 특히 후술하는 도 3 내지 6에 도시된 바와 같은 본 발명의 양태들을 지원한다. 프로세서(106)는 그의 동작들에서 메모리(108)를 사용한다. 특정 장치들에 의한 이러한 컴포넌트들의 특정 용도들은 아래에 적절히 설명된다.1 illustrates some of the more important internal components of the personal electronic device 100. The network interface 104 sends and receives media presentations, related information, and download requests. The processor 106 controls the operations of the apparatus 100 and in particular supports aspects of the present invention as shown in Figures 3-6 described below. Processor 106 uses memory 108 in its operations. Particular uses of these components by specific devices are appropriately described below.

도 2a는 터치 감지 스크린(102)이 적당한 압력의 다수의 터치에 어떻게 응답하는지를 보여준다. 흑색 영역들(200a, 202a, 204a)은 사용자가 스크린(102) 상에 등록할 수 있을 정도로 충분히 강하게 누른 장소를 나타낸다. (이들 영역(200a, 202a, 204a)은 스크린(102)의 사용자에게 어떠한 방식으로도 표시될 필요는 없다.) 원 영역(200a)은 스타일러스 팁 또는 사용자의 손가락 팁의 결과일 수 있다. 영역(202a)은 더 가늘고 길어지며, 이는 아마도 스타일러스 또는 손가락을 아래로 비스듬히 민 결과이다. 204a는 시간을 통해 연장되는 자취이다. 이것은 스크린(102)의 출력에 응답하는 소프트웨어에 따라 "드래그" 모션 또는 제스처로서 해석될 수 있다.2A shows how the touch sensitive screen 102 responds to multiple touches of moderate pressure. The black areas 200a, 202a, 204a represent places where the user has pressed sufficiently strong enough to register on the screen 102. (These areas 200a, 202a, 204a need not be displayed in any way to the user of the screen 102.) The original area 200a may be the result of a stylus tip or a user's finger tip. Region 202a is thinner and longer, which is probably the result of tilting the stylus or finger down at an angle. 204a is a trace extending over time. This may be interpreted as a “drag” motion or gesture, depending on the software responsive to the output of the screen 102.

일부 실시예들에서, 스크린(102)은 터치들(200a, 202a, 204a) 각각의 실제 공간 범위를 보고한다. 이들 실시예에서, 도 2a는 스크린(102)에 의해 보고되는 것의 글자 그대로의 표시이다. 다른 실시예들에서, 스크린(102)은 터치의 실제 영역을 보고하는 것이 아니라, 인가 압력을 보고한다. 예컨대, 터치(200a)는 특정 양의 압력과 관련된 스크린(102) 상의 단일 포인트로서 보고될 수 있다. 이러한 실시예들에서, 도 2a는 스크린(102)이 보고하는 것의 글자 그대로의 표현이 아니라 암시적인 표현으로서 간주되어야 한다.In some embodiments, screen 102 reports the actual spatial range of each of touches 200a, 202a, 204a. In these embodiments, FIG. 2A is a literal representation of what is reported by screen 102. In other embodiments, screen 102 does not report the actual area of the touch, but rather the application pressure. For example, touch 200a may be reported as a single point on screen 102 associated with a certain amount of pressure. In these embodiments, FIG. 2A should be considered as an implicit representation rather than a literal representation of what the screen 102 reports.

도 2b에서, 도 2a의 터치들은 다만 더 높은 압력들에서 반복된다. 원 터치(200a)는 더 큰 압력에 의해 원 영역(200b)으로 확장되었다. 압력이 더 큰 경우, 가늘고 긴 터치(202b)는 영역이 더 클 뿐만 아니라 형상도 변하여, 더 큰 압력에 의해 약간 덜 가늘고 길어졌다. 자취(204b)는 자취(204a)와 동일한 시작 및 종료 포인트들을 갖지만, 자취(204b)의 폭은 더 큰 압력으로 인해 훨씬 더 크다. 터치의 영역을 실제로 보고하지 않는 스크린 실시예들에서, 자취(204b)는 (시간을 통해) 자취(204a)와 동일한 위치를 갖는 것으로 그러나 더 큰 관련 압력 값들을 갖는 것으로 보고된다.In FIG. 2B, the touches of FIG. 2A are repeated only at higher pressures. The one touch 200a has been extended to the original area 200b by the greater pressure. When the pressure is greater, the elongated touch 202b not only has a larger area but also changes shape, which is slightly less elongated by the greater pressure. Trace 204b has the same starting and ending points as trace 204a, but the width of trace 204b is much larger due to the greater pressure. In screen embodiments that do not actually report the area of the touch, trace 204b is reported to have the same location (via time) as trace 204a but with larger associated pressure values.

도 3a 및 3b는 터치 감지 스크린(102)에 의해 사용자 인터페이스 내에 제공되는 압력 정보를 이용하기 위한 제1의 예시적인 방법을 나타낸다. 도 3a의 단계 300에서, 개인용 전자 장치(100)의 프로세서(106)는 스크린(102) 상의 터치에 대한 정보를 수신한다. 본 설명은 물론 터치와 관련된 압력 정보에 집중하지만, 전통적이듯이, 터치에 관한 정보는 일반적으로 적어도 하나의 터치 위치를 포함한다(단계 302). 도 2a의 자취(204a)와 같은 제스처 터치의 경우, 터치 정보는 스크린에 걸친 공간 경로를 포함한다(단계 304). (공간 경로는 일반적으로 일련의 터치 위치들로서 보고된다.)3A and 3B illustrate a first exemplary method for utilizing pressure information provided within a user interface by a touch sensitive screen 102. In step 300 of FIG. 3A, the processor 106 of the personal electronic device 100 receives information about a touch on the screen 102. While this description focuses on pressure information associated with touch, of course, as is traditional, information about touch generally includes at least one touch location (step 302). In the case of a gesture touch, such as trace 204a of FIG. 2A, the touch information includes a spatial path across the screen (step 304). (The spatial path is generally reported as a series of touch positions.)

도 2a의 자취(204a)의 언급은 이것이 "터치"에 의해 의미될 수 있는 것을 설명하기 위한 훌륭한 포인트가 되게 한다. 자취(204a)는 공간 및 시간을 통해 연장되는 하나의 터치로서 간주될 수 있다. 대안으로서, 자취(204a)는 하나씩 바로 이어지는 긴 일련의 터치들로서 간주될 수 있으며, 각각의 터치는 터치 감지 스크린(102) 상의 특정 포인트와 관련되고, 하나의 특정 시점과 관련될 수 있다. 구별은 본 설명에서 사용자가 하나의 압력 값으로 누르기를 시작한 후에 압력을 완전히 해제하지 않고서 상이한 압력 값으로 변경할 때 중요할 수 있다. 일부 사용자 인터페이스들은 이것은 시간에 따라 압력이 변하는 단일 터치로서 간주하는 반면, 다른 사용자 인터페이스들은 이것은 일정한 압력을 값을 각각 갖는, 시간적으로 인접하는 적어도 2개의 터치로 간주한다. 사용자의 제스처를 하나 이상의 "터치"로 분할하는 상이한 정의들은 사용자가 어떤 신호들을 전송하고 있는지를 이해하는 데 중요할 수 있으나, 본 발명은 임의의 그러한 정의와 함께 동작한다.The mention of trace 204a in FIG. 2A makes this a great point to explain what can be meant by “touch”. Trace 204a may be considered as a touch extending through space and time. Alternatively, trace 204a may be regarded as a long series of touches followed immediately one by one, with each touch associated with a particular point on touch sensitive screen 102 and with one particular viewpoint. Distinguishing may be important in this description when the user has started pressing at one pressure value and then changes to a different pressure value without releasing the pressure completely. Some user interfaces regard this as a single touch whose pressure changes over time, while others consider a constant pressure to be at least two temporally adjacent touches each having a value. Different definitions of dividing a user's gesture into one or more "touches" may be important in understanding what signals the user is transmitting, but the present invention works with any such definition.

단계 306에서, 압력 값이 수신된 터치 정보와 연관된다. 이를 달성할 수 있는 많은 방법이 존재하며, 그들 사이의 차이들은 통상적으로 터치 감지 스크린(102)을 구현하는 데 사용될 수 있는 상이한 기술들에 기초한다.In step 306, a pressure value is associated with the received touch information. There are many ways to achieve this, and the differences between them are typically based on different techniques that can be used to implement the touch sensitive screen 102.

단계 306a는 스크린(102) 자체가 압력 값을 보고하는 예들을 커버한다. 터치가 스크린(102) 상의 둘 이상의 포인트를 커버할 때, 일부 스크린들(102)은 터치 내의 각각의 포인트의 압력 값을 보고한다. 다른 스크린들(102)은 단지 터치에 대한 전체 또는 평균 압력 값만을 제공할 수 있다. 도 2a의 204a와 같은 자취는 자취를 따르는 각각의 포인트마다 하나씩인 개별 압력 값들의 긴 리스트를 포함할 수 있다.Step 306a covers examples where the screen 102 itself reports the pressure value. When the touch covers two or more points on the screen 102, some screens 102 report the pressure value of each point in the touch. The other screens 102 may only provide a total or average pressure value for the touch. The trace, such as 204a of FIG. 2A, may include a long list of individual pressure values, one for each point along the trace.

단계 306a는 터치 감지 스크린(102)과 관련된 컴포넌트(예로서, 압력 센서)가 압력 값을 보고하는 예들도 커버한다. 매우 간단한 예에서, 전체 스크린(102)은 압전 압력 센서 상에 놓일 수 있다. 스크린(102)이 터치될 때, 압력 센서는 인가 압력의 총량을 보고한다. 이러한 매우 간단한 시스템은 물론 공간적으로 연장하는 터치의 각각의 포인트에 가해지는 압력을 보고하지 못한다. 다른 예에서는, "스마트" 스타일러스가 사용자가 가하는 압력을 측정하고, 그 정보를 개인용 전자 장치(100)에 보고한다. 일반적으로, 스타일러스는 전체 압력만을 보고한다.Step 306a also covers examples in which a component (eg, a pressure sensor) associated with the touch sensitive screen 102 reports a pressure value. In a very simple example, the entire screen 102 may be placed on a piezoelectric pressure sensor. When the screen 102 is touched, the pressure sensor reports the total amount of applied pressure. This very simple system, of course, fails to report the pressure exerted on each point of the spatially extending touch. In another example, the “smart” stylus measures the pressure applied by the user and reports the information to the personal electronic device 100. In general, the stylus reports only the total pressure.

단계 306b는 터치와 관련된 압력이 직접 보고되지 않지만 압력이 계산될 수 있는 충분한 정보가 제공되는 예들을 커버한다. 일부 터치 감지 스크린들(102)은 터치 내에 포함된 "포인트들"의 수를 보고한다. 이것은 터치를 등록하기에 충분한 압력을 수신한 스크린(102)의 영역이다. 이러한 스크린들(102)의 경우, 도 2a의 약한 터치(200a)와 도 2b의 강한 터치(200b)는 강한 터치(200b)에 의해 영향을 받은 영역이 더 크다는 사실에 의해 구별된다. 일부 스크린들(102)에서, 영역은 터치에 의해 영향을 받은 채널들(또는 포인트들)의 수로서 보고된다. 일부 스크린들(102)은 소정 방식에서 터치의 압력에 비례하는 더 강한 신호를 보고한다. 스크린(102)이 터치의 영역(또는 영향받은 채널들의 수) 및 전체 압력에 비례하는 신호 양자를 보고하는 경우, 이러한 2개의 값을 비교함으로써 평균 압력이 계산될 수 있다. 따라서, 스크린(102)의 큰 영역에 걸치는 매우 약한 터치가 작은 영역 내에 집중된 강한 터치로부터, 비록 전체 스크린(102)에 의해 수신되는 전체 압력은 이 두 예에서 동일할 수 있더라도, 구별될 수 있다.Step 306b covers examples where the pressure associated with the touch is not reported directly but sufficient information is provided for the pressure to be calculated. Some touch sensitive screens 102 report the number of "points" contained within a touch. This is the area of the screen 102 that has received enough pressure to register a touch. For these screens 102, the weak touch 200a of FIG. 2A and the strong touch 200b of FIG. 2B are distinguished by the fact that the area affected by the strong touch 200b is larger. In some screens 102, the area is reported as the number of channels (or points) affected by the touch. Some screens 102 report a stronger signal that is proportional to the pressure of the touch in some manner. If the screen 102 reports both the area of the touch (or the number of channels affected) and the signal proportional to the total pressure, the average pressure can be calculated by comparing these two values. Thus, from a strong touch where a very weak touch over a large area of the screen 102 is concentrated in a small area, the overall pressure received by the entire screen 102 can be distinguished, although it may be the same in these two examples.

많은 기술에서, 보고되는 압력은 제곱미터당 뉴턴의 실제 값이 아니라 상대 값이라는 점에 유의해야 한다. 본 발명은 실제 또는 상대적 압력 측정들과 함께 완전 양호하게 동작한다. 사실상, 단계 306에서 터치와 관련된 압력 값은 그룹 "임계치 위" 및 "임계치 아래"로부터 선택될 수 있다. 물론, 터치 감지 스크린(102)은 필요한 경우에 0의 압력 값("그 순간에 터치 미검출")도 보고할 수 있지만, 그러한 경우에는 도 3a 및 3b의 방법이 호출되지 않을 것이다.In many techniques, it should be noted that the reported pressure is relative rather than the actual value of Newtons per square meter. The present invention works perfectly well with actual or relative pressure measurements. In fact, the pressure value associated with the touch in step 306 may be selected from the groups "above threshold" and "below threshold". Of course, the touch sensitive screen 102 may also report a pressure value of zero (“not touch at that moment”) if necessary, but in that case the method of FIGS. 3A and 3B will not be called.

단계 308에서, 터치와 관련된 압력이 0이 아닌 임계치와 비교된다. (본 발명은 약한 터치와 강한 터치를 구별하므로 임계치는 0이 아니며, 0의 임계치는 단지 터치와 비터치를 구별할 뿐일 것이다.) 실제 임계치는 (도 3b의 단계 310 및 312에서) 터치를 처리할 애플리케이션에 따라 변할 수 있다는 점에 유의한다. 그러나, 사용자들이 임계치를 가로지르기 위해 얼마나 큰 압력을 인가해야 하는지에 대한 "감각"을 획득할 수 있도록 하기 위해 일관된 임계치의 사용이 권장된다.In step 308, the pressure associated with the touch is compared with a nonzero threshold. (The present invention distinguishes weak touches from strong touches, so the threshold is not zero, and a threshold of zero will only distinguish touch from non-touch.) The actual threshold handles the touch (in steps 310 and 312 of FIG. 3B). Note that this can vary depending on the application you are doing. However, the use of a consistent threshold is encouraged to enable users to gain a "sense" of how much pressure they must apply to cross the threshold.

사용자 인터페이스의 가장 간단한 실시예는 도 3b의 단계 310 및 312만을 포함한다. 요컨대, 압력이 임계치 아래인 경우, 하나의 액션이 수행되고(단계 310), 그렇지 않은 경우에 상이한 액션이 수행된다(단계 312). 사용자 인터페이스 액션들은 예를 들어 터치 감지 스크린(102) 상에 표시된 아이콘의 선택, 스크린(102) 상에 표시된 아이콘과 관련된 파일의 개방, 스크린(102) 상에 표시된 아이콘과 관련된 프로그램의 실행, 및 제어 파라미터의 값의 변경을 포함할 수 있다. 특정 예로서, 드로잉 애플리케이션이 현재 터치에 응답하고 있는 경우, 드로잉 애플리케이션은 스크린(102) 상에 드로잉함으로써 임계치 아래의 터치에 응답할 수 있는 반면, 더 강한 터치는 이미 드로잉된 것을 삭제할 수 있다.The simplest embodiment of the user interface includes only steps 310 and 312 of FIG. 3B. In short, if the pressure is below the threshold, one action is performed (step 310), otherwise a different action is performed (step 312). User interface actions may include, for example, selecting an icon displayed on the touch sensitive screen 102, opening a file associated with the icon displayed on the screen 102, executing a program associated with the icon displayed on the screen 102, and controlling it. It may include changing the value of a parameter. As a specific example, if the drawing application is currently responding to a touch, the drawing application may respond to a touch below the threshold by drawing on the screen 102, while a stronger touch may delete the already drawn one.

다른 예로서, 터치는 미디어 재생 애플리케이션으로 전송될 수 있다. 빨리 감기 아이콘 상의 약한 터치는 제1 속도로 미디어 프레젠테이션을 통해 빨리 감지를 행하는 반면, 강한 터치는 더 빠른 속도로 프레젠테이션을 통해 빨리 감기를 행할 것이다. 도 3a의 단계 306에서 터치와 관련된 압력이 단순히 "임계치 위" 또는 "임계치 아래"보다 더 많은 정보를 제공하는 경우, 이러한 2개 속도 빨기 감지 제어는 단계 312a에서 그의 응답을 관련 압력과 임계치 사이의 차이에 비례하게 함으로써 정밀화될 수 있다. 즉, 단지 2개의 속도 사이에서 전환하는 것이 아니라, 사용자가 점점더 강하게 누름에 따라 속도는 계속 증가할 수 있다. 물론, 이러한 타입의 압력 감지 제어는 사용자가 제어를 누른 상태로 유지할 때 속도를 증가시키기 위한 공지 기술들과 쉽게 결합될 수 있다. 이 예는 사용자 인터페이스 설계자들이 터치 감지 스크린들과 전통적으로 관련된 것들을 넘는 가능성을 제공받을 때 본 발명의 실제 장점들을 보여주기 위해 시작된다.As another example, the touch can be sent to a media playback application. A weak touch on the fast forward icon will quickly sense through the media presentation at a first speed, while a strong touch will fast forward through the presentation at a faster speed. If the pressure associated with the touch in step 306 of FIG. 3A provides more information than simply “above the threshold” or “below the threshold,” these two speed suck detection controls may determine their response between the associated pressure and the threshold in step 312a. It can be refined by making it proportional to the difference. That is, instead of just switching between two speeds, the speed can continue to increase as the user presses harder and harder. Of course, this type of pressure sensitive control can be easily combined with known techniques for increasing speed when the user keeps the control pressed. This example begins to demonstrate the real advantages of the present invention when user interface designers are offered the possibility beyond those traditionally associated with touch sensitive screens.

일부 실시예들은 압력의 증가에 따라 응답을 선형적으로 증가시키는 것이 아니라 단순히 적어도 하나 이상의 0이 아닌 임계치를 포함할 수 있다(단계 312b). 이것은 위의 예에서의 2개 속도 빨리 감기 제어를 3개 속도 제어 등으로 바꿀 것이다.Some embodiments may simply include at least one or more nonzero thresholds (step 312b) rather than linearly increasing the response with increasing pressure. This would change the two speed fast forward control in the example above to three speed control and so on.

임의의 실시예에서, 사용자 인터페이스 설계자는 사용자에게 그의 압력이 임계치를 가로질렀다는 통지를 제공하는 단계 312c를 구현하기로 결정할 수 있다. 예를 들어, 압력이 임계치보다 크다는 아이콘이 터치 감지 스크린 상에 표시될 수 있거나, 사운드가 재생될 수 있거나, 아마도 가장 유효하게는, 물리적 버튼이 그의 스프링에 대해 점점더 강하게 눌릴 때 만나는 피드백을 모방하는 햅틱 응답이 제공될 수 있다. 상이한 사용자 인터페이스들은 아마도 상이한 통지들을 구현할 것이다.In any embodiment, the user interface designer may decide to implement step 312c to provide the user with a notification that his pressure has crossed the threshold. For example, an icon indicating that the pressure is above a threshold may be displayed on the touch-sensitive screen, a sound may be played, or perhaps most effectively, mimics the feedback encountered when a physical button is pressed harder and harder against its spring. A haptic response can be provided. Different user interfaces will probably implement different notifications.

위에 주어진 예에서는 인가 압력과 선택된 사용자 인터페이스 액션 사이에 연역적 논리 관계가 존재하지 않는다는 점에 유의한다. 반대 예에 의해 이 점을 설명하기 위해, 드로잉 애플리케이션에서, 사용자의 터치는 터치 감지 스크린(102) 상에 그래픽으로 표현되는데, 즉 사용자가 도 2a의 자취(204a)와 같은 자취를 생성할 때 스크린(102) 상에는 라인이 표시된다. 물리적 브러시가 더 강하게 눌러질 때 더 넓은 라인을 페인팅하므로, 도 2b의 자취(204b)에서와 같이, 압력이 강할 때 드로잉 애플리케이션이 더 넓은 라인을 표시하는 것이 논리적일 것이다. 따라서, 이 예에서 사용자의 마음속에는 인가 압력과 스크린(102) 상에 표시된 자취의 폭 사이에 연역적 논리 관계가 존재한다. 그러나, 이전 예들이 나타내는 바와 같이, 본 발명은 이러한 연역적 논리 구현들로 한정되지 않는다.Note that in the example given above, there is no deductive logic relationship between the application pressure and the selected user interface action. To illustrate this point by the opposite example, in a drawing application, the user's touch is graphically represented on the touch sensitive screen 102, ie, when the user creates a trace, such as trace 204a of FIG. 2A. A line is displayed on 102. Since the physical brush paints a wider line when pressed harder, it would be logical for the drawing application to display the wider line when the pressure is high, as in trace 204b of FIG. 2B. Thus, in this example, there is a deductive logical relationship between the application pressure and the width of the trace displayed on the screen 102 in the user's mind. However, as the previous examples indicate, the present invention is not limited to these deductive logic implementations.

위의 설명은 매우 일반적이며, 많은 가능한 실시예들을 커버하는 것을 의도한다. 구체적인 예로서, 도 4a 및 4b에 도시된 방법을 고려한다. 방법은 도 4a의 단계 400으로부터 시작된다. 이 단계 400은 실제 터치가 (터치 감지 디스플레이 스크린(102) 상에서) 시간 및 공간을 통해 연장할 수 있다는 것을 강조한다. 이 경우, 스크린(102)은 주기적인 메시지들을 전송하며(또는 프로세서(106)에 의해 주기적으로 조회되며), 그 결과는 위치 값들 및 관련 압력들의 스트링이다. 즉, 단계 400은 터치가 계속 되는 한 계속되는 (단계 408을 통한) 처리 루프를 도입한다. 일반적으로, 터치가 완료된 것으로 간주되며, 스크린(102)으로부터 보고되는 압력 값이 0으로 떨어질 때 루프는 단계 410으로 나간다.The above description is very general and is intended to cover many possible embodiments. As a specific example, consider the method shown in FIGS. 4A and 4B. The method begins with step 400 of FIG. 4A. This step 400 emphasizes that the actual touch can extend through time and space (on the touch sensitive display screen 102). In this case, screen 102 sends periodic messages (or is periodically queried by processor 106) and the result is a string of position values and associated pressures. That is, step 400 introduces a processing loop that continues (through step 408) as long as the touch continues. In general, the touch is considered complete and the loop proceeds to step 410 when the pressure value reported from the screen 102 drops to zero.

터치에 대한 정보가 수신됨에 따라, 프로세서(106)는 단계 402에서 시작하여 그 정보를 평가한다. 여기서, 압력 값이 현재 순간의 터치와 연관된다. 도 3a의 단계 306에 대한 위의 설명은 여기서도 적용된다. 현재 압력 값이 단계 404에서 압력 임계치와 비교된다.As information about the touch is received, processor 106 begins at step 402 and evaluates the information. Here, the pressure value is associated with the touch of the present moment. The above description of step 306 of FIG. 3A applies here as well. The current pressure value is compared with the pressure threshold at step 404.

프로세서(106)는 터치에 의해 커버되는 거리를 계속 추적한다. 일반적으로, 프로세서(106)는 주기적인 터치 위치 보고들로부터 이 거리를 계산한다. 단계 406에서, 터치와 현재 관련된 전체 거리가 거리 임계치와 비교된다. 거리 임계치가 초과되는 경우, 그리고 이 터치가 아직 "강한 누름"으로서 분류되지 않은 경우(단계 408 참조), 이 터치는 "스와이프"로서 분류된다.The processor 106 keeps track of the distance covered by the touch. In general, processor 106 calculates this distance from periodic touch location reports. In step 406, the total distance currently associated with the touch is compared with the distance threshold. If the distance threshold is exceeded, and if this touch has not yet been classified as "strong pressed" (see step 408), this touch is classified as "swipe".

유사하게, 단계 408에서, 현재 압력이 (전술한 도 3a의 단계 308에서와 같이) 압력 임계치와 비교된다. 압력 임계치가 초과되는 경우에 그리고 이 터치가 아직 "스와이프"로서 분류되지 않은 경우에(단계 406 참조), 이 터치는 "강한 누름"으로 분류된다.Similarly, at step 408 the current pressure is compared to the pressure threshold (as in step 308 of FIG. 3A described above). If the pressure threshold is exceeded and this touch has not yet been classified as a "swipe" (see step 406), this touch is classified as "strong pressed".

처리 루프(단계 400 내지 408)는 터치의 지속 기간 동안 계속된다. 터치가 완료될 때, 터치가 달리 분류되지 않은 경우, 터치는 단계 410에서 "탭"으로 분류된다.The processing loop (steps 400 through 408) continues for the duration of the touch. When the touch is complete, if the touch is not otherwise classified, the touch is classified as a "tap" at step 410.

단계 406 내지 410의 결과는 모든 터치가 "강한 누름", "스와이프" 및 "탭" 중 정확히 하나로서 분류되는 것이다. "강한 누름" 및 "스와이프" 중에서, (적절한 임계치를 초과함으로써) 트리거된 처음 것은 다른 것을 이긴다. 예를 들어, 터치가 "강한 누름"으로 분류되면, 터치는 "스와이프"가 될 수 없다. 어떠한 임계치도 초과되지 않는 경우, 디폴트 분류는 "탭"이다. 명백히, 이러한 3개의 분류를 이용하는 다른 구현 선택들도 가능하다.The result of steps 406 through 410 is that all touches are classified as exactly one of "strong press", "swipe" and "tap". Of the "strong press" and "swipe", the first triggered (by exceeding the appropriate threshold) wins the other. For example, if a touch is classified as "strong pressed", the touch may not be "swipe". If no threshold is exceeded, the default classification is "tap". Clearly, other implementation choices using these three classifications are possible.

마지막으로, 도 4b의 단계 412에서, 터치에 의해 사용자 인터페이스 액션이 트리거되고, 특정 액션은 터치의 분류에 기초한다. 많은 예에서 단계 412의 액션은 터치가 완료될 때까지 기다릴 필요가 없다는 점에 유의한다. 터치가 예를 들어 "강한 누름"으로 분류되면, 터치는 "스와이프" 또는 "탭"으로 재분류될 수 없으며, 따라서 사용자 인터페이스는 터치가 완료되기 전에도 적절한 액션을 취할 수 있다.Finally, in step 412 of FIG. 4B, the user interface action is triggered by the touch, and the specific action is based on the classification of the touch. Note that in many examples, the action of step 412 need not wait for the touch to complete. If a touch is classified as, for example, "strong pressed," the touch may not be reclassified as "swipe" or "tap", so that the user interface may take appropriate action even before the touch is completed.

이점의 일례로서, 도 2b의 자취(204b)를 고려한다. 사용자가 압력 임계치를 초과할 정도로 충분히 강하게 누름으로써 자취(204b)를 시작하는 것으로 가정한다. 이어서, 이 자취(204b)는 "강한 누름"으로 분류된다(도 4a의 단계 408). 일 실시예에서, 트리거된 사용자 액션(도 4b의 단계 412)은 "드래그 앤 드롭"이다. 자취(204b)의 처음에 위치하는 스크린 아이콘이 이 자취가 분류되자마자(단계 408) "그래브(grab)"되고, 자취(204b)의 경로를 따라 이동된 후에 자취가(204b)가 끝날 때 정지된다.As an example of this, consider trace 204b of FIG. 2B. It is assumed that the user starts the trace 204b by pressing hard enough to exceed the pressure threshold. This trace 204b is then classified as " strong presses " (step 408 of FIG. 4A). In one embodiment, the triggered user action (step 412 of FIG. 4B) is “drag and drop”. The screen icon located at the beginning of the trace 204b is " grabbed " as soon as this trace is classified (step 408) and moved along the path of the trace 204b and when the trace 204b ends. Is stopped.

도 5는 이전 예들과 함께 사용될 수 있는 정밀화를 제공한다. 그러한 이전 예들 모두는 터치 압력을 모니터링하며, 도 5의 방법은 또한 압력 값의 시간 변화율을 모니터링한다. 방법은 단계 500에서 시작하며, 여기서 터치 감지 스크린(102)으로부터 "데이터 포인트들"이 수신된다. (데이터 포인트들은 이전의 방법들로부터 벗어난 것이 아니라, 이들은 단지 스크린(102)과 사용자 인터페이스 간의 관계를 설명하는 다른 방식일 뿐이다.) 도 4a 및 4b의 확장된 터치와 같이, 도 5의 방법은 터치의 지속 기간 동안 계속되는 루프로부터 시작된다. 단계 500에서, 스크린(102)은 터치 위치를 주기적으로 보고한다.5 provides a refinement that can be used with the previous examples. All such previous examples monitor the touch pressure, and the method of FIG. 5 also monitors the rate of change of the pressure value. The method begins at step 500, where "data points" are received from the touch sensitive screen 102. (The data points do not deviate from the previous methods, they are merely another way of describing the relationship between the screen 102 and the user interface.) As with the extended touch of FIGS. 4A and 4B, the method of FIG. It starts from a loop that continues for the duration of. In step 500, the screen 102 reports the touch position periodically.

단계 502에서, 압력 값들이 데이터 포인트들 중 적어도 일부와 연관된다. 이 단계는 도 3a의 단계 306 및 도 4a의 단계 402와 유사하다.In step 502, pressure values are associated with at least some of the data points. This step is similar to step 306 of FIG. 3A and step 402 of FIG. 4A.

단계 504는 본 방법의 새로운 단계이다. 압력의 변화율이 수신된 데이터 포인트들의 세트와 연관된다. 일반적으로, 프로세서(106)는 단계 502의 연관된 압력들을 (단계 500으로부터의) 데이터 포인트들의 타임스탬프들과 맵핑함으로써 변화율을 계산한다. 이어서, 단계 506에서 변화율은 사용자 인터페이스에 대한 입력으로 사용된다. 단지 일례로서, 사용자가 터치의 압력을 매우 빠르게 증가시키는 경우에만 소정의 사용자 인터페이스 액션이 트리거될 수 있다.Step 504 is a new step of the method. The rate of change of pressure is associated with the set of received data points. In general, processor 106 calculates the rate of change by mapping the associated pressures of step 502 with timestamps of data points (from step 500). The rate of change is then used as input to the user interface at step 506. As just one example, certain user interface actions can be triggered only if the user increases the pressure of the touch very quickly.

옵션인 단계 508은 압력의 변화율을 사용자에게 통지한다. 이것은 압력이 임계치를 초과했다는 것을 사용자에게 통지(도 3b의 단계 312c)하는 것과 유사하지만, 솔직하게는 변화율을 지시하기 위한 통지는 약한 압력과 강한 압력 사이의 전환을 지시하기 위한 통지보다 덜 가치있는 것으로 생각된다.Optional step 508 notifies the user of the rate of change of pressure. This is similar to notifying the user that the pressure has exceeded the threshold (step 312c in FIG. 3B), but frankly, the notification to indicate the rate of change is less valuable than the notification to indicate the transition between weak and strong pressure. I think.

마지막 구체적인 예는 본 설명을 완료하기에 충분하다. 도 6은 전술한 능력들에 기초하여 구성되는 사용자 인터페이스 방법을 제공한다. 이 방법은 전술한 방법들 중 일부와 같이 확장된 터치를 분석한다. 처리 루프는 단계 600으로부터 시작되며, 여기서 터치 감지 스크린(102)으로부터 데이터 포인트들이 수신된다. 단계 602에서 압력 값들이 데이터 포인트들과 연관된다. 이 2개의 단계는 도 3a의 단계 300 및 306, 도 4a의 단계 400 및 402, 및 도 5의 단계 500 및 502와 유사하다.The last specific example is sufficient to complete this description. 6 provides a user interface method configured based on the foregoing capabilities. This method analyzes the extended touch as some of the methods described above. The processing loop begins at step 600 where data points are received from the touch sensitive screen 102. In step 602 pressure values are associated with the data points. These two steps are similar to steps 300 and 306 of FIG. 3A, steps 400 and 402 of FIG. 4A, and steps 500 and 502 of FIG. 5.

이어서, 단계 604에서, 데이터 포인트 정보가 저장된 제스처 프로필과 비교된다. 예를 들어, 각각의 데이터 포인트(또는 더 가능하게는 대표적인 데이터 포인트들)의 압력 및 위치가 저장된 제스처 프로필 내의 유사한 데이터 포인트들과 비교된다.Then, in step 604, the data point information is compared with the stored gesture profile. For example, the pressure and location of each data point (or more possibly representative data points) are compared with similar data points in the stored gesture profile.

저장된 제스처 프로필은 예를 들어 사용자가 그의 이름을 터치 감지 스크린(102) 상에 여러 번 서명함으로써 생성될 수 있다. 위치 및 압력 정보 양자를 이용하여 그의 서명을 특성화하는 프로필이 생성된다. 일 실시예에서, 서명들이 비교되며, 가장 안정된 부분들만이 프로필 내에 표현된다. 프로필은 사용자가 그의 이름을 서명할 때 위치 및 압력 정보를 얼마나 많이 변경하는지를 정확히 나타내는 매우 구체적인 임계 정보를 포함할 수 있다. 도 5의 기술들은 위치 및 압력 값 정보와 함께 압력의 변화율을 저장함으로써 저장된 제스처 프로필에도 적용될 수 있다.The stored gesture profile can be created, for example, by the user signing his or her name multiple times on the touch sensitive screen 102. A profile is created that characterizes its signature using both positional and pressure information. In one embodiment, signatures are compared and only the most stable portions are represented in the profile. The profile may contain very specific threshold information that accurately indicates how much the location and pressure information changes when the user signs his name. The techniques of FIG. 5 can also be applied to stored gesture profiles by storing the rate of change of pressure along with position and pressure value information.

단계 606에서, 비교들 각각이 임계치 내에 있는 경우(또는 비교들의 사전 정의된 비율이 임계치 내에 있는 경우), 수신된 데이터 포인트들의 세트는 저장된 제스처 프로필의 매치로서 간주된다. 서명의 예를 계속하면, 사용자는 그의 이름을 서명하도록 촉구될 수 있다. 그의 서명은 단계 600 내지 606을 통해 수신되고 분석되는 터치이다. 그의 현재 서명이 저장된 제스처 프로필과 매칭되는 경우, 그는 인증되며, 제어 정보에 대한 액세스를 제공받을 수 있다. 따라서, 도 6의 방법은 표준 텍스트 입력 메커니즘들보다 훨씬 더 파괴하기 어렵고 표준 서명 기반(즉, 순수 위치 기반) 보안 메커니즘들보다 훨씬 더 양호한 레벨의 패스워드 보안을 제공한다.In step 606, if each of the comparisons is within a threshold (or if a predefined ratio of comparisons is within the threshold), the set of received data points is considered as a match of the stored gesture profile. Continuing the example of signing, the user may be prompted to sign his name. His signature is a touch received and analyzed via steps 600-606. If his current signature matches a stored gesture profile, he may be authenticated and provided access to control information. Thus, the method of FIG. 6 is much more subtle than standard text input mechanisms and provides a much better level of password security than standard signature based (ie pure location based) security mechanisms.

도 6의 방법은 사용자에 의해 행해지는 임의의 제스처들을 인식하고 검증하는 데 사용될 수 있다. 이 방법은 예를 들어 수기 인식 프로그램의 신뢰성을 향상시킬 수 있다.The method of FIG. 6 may be used to recognize and verify any gestures made by a user. This method can improve the reliability of the handwriting recognition program, for example.

위에 주어진 예들은 수행되는 실제 액션들이 사용자 인터페이스의 설계자에 의해 선택되며, 압력 값이 단순히 개인용 전자 장치(100)의 사용자에 의해 사용자 인터페이스로 전송되는 신호라는 것을 예시한다.The examples given above illustrate that the actual actions performed are selected by the designer of the user interface, and the pressure value is simply a signal sent by the user of the personal electronic device 100 to the user interface.

본 발명의 원리들이 적용될 수 있는 많은 가능한 실시예를 고려할 때, 도면들과 관련하여 본 명세서에서 설명된 실시예들은 예시적인 것을 의도할 뿐이며, 본 발명의 범위를 한정하는 것으로 간주되지 않아야 한다. 예를 들어, 본 발명의 매우 상이한 용도들이 상이한 사용자 인터페이스들에 대해 그리고 상이한 상황들에서 고려된다. 따라서, 본 명세서에서 설명된 바와 같은 본 발명은 아래의 청구항들 및 이들의 균등물들의 범위 내에 속할 수 있는 바와 같은 모든 그러한 실시예들을 고려한다.In view of the many possible embodiments to which the principles of the invention may be applied, the embodiments described herein in connection with the drawings are intended to be illustrative only and should not be considered as limiting the scope of the invention. For example, very different uses of the present invention are contemplated for different user interfaces and in different situations. Accordingly, the present invention as described herein contemplates all such embodiments as may fall within the scope of the following claims and their equivalents.

Claims (9)

터치 감지 스크린(102)을 구비한 개인용 전자 장치(100)에서, 사용자 입력에 응답하기 위한 방법으로서,
상기 터치 감지 스크린(102)으로부터 복수의 데이터 포인트를 수신하는 단계(500) - 각각의 데이터 포인트는 위치 정보를 포함함 -;
상기 수신된 복수의 데이터 포인트 각각에 대해, 압력을 상기 데이터 포인트와 연관시키는 단계(502);
적어도 하나의 압력 변화율을 상기 데이터 포인트들 중 적어도 서브세트와 연관시키는 단계(504); 및
상기 연관된 압력 변화율 정보에 적어도 부분적으로 기초하여 사용자 인터페이스 액션을 수행하는 단계(506)
를 포함하는 방법.
In the personal electronic device 100 having a touch sensitive screen 102, a method for responding to a user input,
Receiving (500) a plurality of data points from the touch sensitive screen (102), each data point comprising location information;
For each of the received plurality of data points, associating (502) pressure with the data points;
Associating (504) at least one pressure change rate with at least a subset of the data points; And
Performing 506 a user interface action based at least in part on the associated pressure change rate information
≪ / RTI >
제1항에 있어서,
상기 복수의 데이터 포인트 각각에 대해, 시간을 상기 데이터 포인트와 연관시키는 단계를 더 포함하고,
적어도 하나의 압력 변화율을 연관시키는 단계는 복수의 데이터 포인트와 관련된 압력들 및 시간들을 비교하는 단계를 포함하는 방법.
The method of claim 1,
For each of the plurality of data points, further associating time with the data points,
Associating at least one rate of change of pressure comprises comparing pressures and times associated with the plurality of data points.
제1항에 있어서,
적어도 하나의 압력 변화율을 연관시키는 단계는 상기 터치 감지 스크린으로부터 변화율 값을 수신하는 단계를 포함하는 방법.
The method of claim 1,
Associating at least one rate of change of pressure comprises receiving a rate of change value from the touch sensitive screen.
제1항에 있어서,
상기 사용자 인터페이스 액션은 상기 스크린 상에 표시된 아이콘의 선택, 상기 스크린 상에 표시된 아이콘과 관련된 파일의 개방, 상기 스크린 상에 표시된 아이콘과 관련된 프로그램의 실행, 제어 파라미터의 값의 변경, 상황 메뉴의 개방, 및 상기 스크린 상에 표시된 아이콘의 픽업으로 구성된 그룹으로부터 선택되는 방법.
The method of claim 1,
The user interface action may include selecting an icon displayed on the screen, opening a file associated with an icon displayed on the screen, executing a program associated with an icon displayed on the screen, changing a value of a control parameter, opening a context menu, And picking up an icon displayed on the screen.
개인용 전자 장치(100)로서,
터치 감지 스크린(102); 및
상기 터치 감지 스크린(102)에 기능적으로(operatively) 접속된 프로세서(106)
를 포함하고,
상기 프로세서는
상기 터치 감지 스크린(102)으로부터 복수의 데이터 포인트를 수신하고(500) - 각각의 데이터 포인트는 위치 정보를 포함함 -;
상기 수신된 복수의 데이터 포인트 각각에 대해, 압력을 상기 데이터 포인트와 연관시키고(502);
적어도 하나의 압력 변화율을 상기 데이터 포인트들 중 적어도 서브세트와 연관시키고(504);
상기 연관된 압력 변화율 정보에 적어도 부분적으로 기초하여 사용자 인터페이스 액션을 수행(506)하도록 구성되는 개인용 전자 장치.
A personal electronic device (100) comprising:
Touch sensitive screen 102; And
Processor 106 operatively connected to the touch sensitive screen 102
Lt; / RTI >
The processor
Receive (500) a plurality of data points from the touch sensitive screen (102), each data point including location information;
For each of the received plurality of data points, associating a pressure with the data point (502);
Associating (504) at least one pressure change rate with at least a subset of said data points;
And perform (506) a user interface action based at least in part on the associated pressure change rate information.
터치 감지 스크린(102)을 구비한 개인용 전자 장치(100)에서, 사용자 입력에 응답하기 위한 방법으로서,
상기 터치 감지 스크린(102)으로부터 복수의 데이터 포인트를 수신하는 단계(600) - 각각의 데이터 포인트는 위치 정보를 포함함 -;
상기 수신된 복수의 데이터 포인트 각각에 대해, 압력을 상기 데이터 포인트와 연관시키는 단계(602);
관련 압력을 갖는 상기 복수의 데이터 포인트에 대해, 상기 위치 정보 및 상기 관련 압력을 저장된 제스처 프로필과 비교하는 단계(604); 및
상기 비교된 데이터 포인트들이 상기 저장된 제스처 프로필의 임계치 내에 있는 경우에, 상기 비교된 데이터 포인트들에 적어도 부분적으로 기초하여 사용자 인터페이스 액션을 수행하는 단계(606)
를 포함하는 방법.
In the personal electronic device 100 having a touch sensitive screen 102, a method for responding to a user input,
Receiving (600) a plurality of data points from the touch sensitive screen (102), each data point comprising location information;
For each of the received plurality of data points, associating a pressure with the data point (602);
For the plurality of data points having an associated pressure, comparing the location information and the associated pressure with a stored gesture profile (604); And
If the compared data points are within a threshold of the stored gesture profile, performing a user interface action based at least in part on the compared data points (606)
≪ / RTI >
제6항에 있어서,
상기 임계치는 위치 임계치 및 압력 임계치를 포함하는 방법.
The method according to claim 6,
Wherein the threshold comprises a position threshold and a pressure threshold.
제6항에 있어서,
상기 사용자 인터페이스 액션은 상기 스크린 상에 표시된 아이콘의 선택, 상기 스크린 상에 표시된 아이콘과 관련된 파일의 개방, 상기 스크린 상에 표시된 아이콘과 관련된 프로그램의 실행, 제어 파라미터의 값의 변경, 상황 메뉴의 개방, 및 상기 스크린 상에 표시된 아이콘의 픽업으로 구성된 그룹으로부터 선택되는 방법.
The method according to claim 6,
The user interface action may include selecting an icon displayed on the screen, opening a file associated with an icon displayed on the screen, executing a program associated with an icon displayed on the screen, changing a value of a control parameter, opening a context menu, And picking up an icon displayed on the screen.
개인용 전자 장치(100)로서,
터치 감지 스크린(102); 및
상기 터치 감지 스크린(102)에 기능적으로 접속된 프로세서(106)
를 포함하고,
상기 프로세서는
상기 터치 감지 스크린(102)으로부터 복수의 데이터 포인트를 수신하고(600) - 각각의 데이터 포인트는 위치 정보를 포함함 -;
상기 수신된 복수의 데이터 포인트 각각에 대해, 압력을 상기 데이터 포인트와 연관시키고(602);
관련 압력을 갖는 상기 복수의 데이터 포인트에 대해, 상기 위치 정보 및 상기 관련 압력을 저장된 제스처 프로필과 비교하고(604); 및
상기 비교된 데이터 포인트들이 상기 저장된 제스처 프로필의 임계치 내에 있는 경우에, 상기 비교된 데이터 포인트들에 적어도 부분적으로 기초하여 사용자 인터페이스 액션을 수행(606)하도록 구성되는 개인용 전자 장치.
A personal electronic device (100) comprising:
Touch sensitive screen 102; And
Processor 106 functionally connected to the touch sensitive screen 102
Lt; / RTI >
The processor
Receive (600) a plurality of data points from the touch sensitive screen (102), each data point including location information;
For each of the received plurality of data points, associating a pressure with the data point (602);
For the plurality of data points having an associated pressure, compare the location information and the associated pressure with a stored gesture profile (604); And
And if the compared data points are within a threshold of the stored gesture profile, perform (606) a user interface action based at least in part on the compared data points.
KR1020137032030A 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen KR101548852B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/150,696 US8508494B2 (en) 2011-06-01 2011-06-01 Using pressure differences with a touch-sensitive display screen
US13/150,696 2011-06-01
PCT/US2012/036215 WO2012166280A1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020157002107A Division KR101835188B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen

Publications (2)

Publication Number Publication Date
KR20140005356A true KR20140005356A (en) 2014-01-14
KR101548852B1 KR101548852B1 (en) 2015-08-31

Family

ID=46172908

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020157002107A KR101835188B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen
KR1020137032030A KR101548852B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen
KR1020187005590A KR101915444B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020157002107A KR101835188B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020187005590A KR101915444B1 (en) 2011-06-01 2012-05-03 Using pressure differences with a touch-sensitive display screen

Country Status (5)

Country Link
US (1) US8508494B2 (en)
EP (2) EP2715495A1 (en)
KR (3) KR101835188B1 (en)
CN (2) CN103562828B (en)
WO (1) WO2012166280A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929007B2 (en) 2014-11-05 2021-02-23 Samsung Electronics Co., Ltd. Method of displaying object on device, device for performing the same, and recording medium for performing the method

Families Citing this family (132)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8594740B2 (en) 2008-06-11 2013-11-26 Pantech Co., Ltd. Mobile communication terminal and data input method
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8719277B2 (en) * 2011-08-08 2014-05-06 Google Inc. Sentimental information associated with an object within a media
US8976128B2 (en) * 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9069460B2 (en) * 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
JP5934537B2 (en) * 2012-03-27 2016-06-15 京セラ株式会社 Electronic device and control method of electronic device
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
EP3410287B1 (en) 2012-05-09 2022-08-17 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
CN107728906B (en) 2012-05-09 2020-07-31 苹果公司 Device, method and graphical user interface for moving and placing user interface objects
WO2013169875A2 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
CN105260049B (en) 2012-05-09 2018-10-23 苹果公司 For contacting the equipment for carrying out display additional information, method and graphic user interface in response to user
EP2847659B1 (en) 2012-05-09 2019-09-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
JP6082458B2 (en) 2012-05-09 2017-02-15 アップル インコーポレイテッド Device, method, and graphical user interface for providing tactile feedback of actions performed within a user interface
US10649622B2 (en) * 2012-05-09 2020-05-12 Apple Inc. Electronic message user interface
CN109298789B (en) 2012-05-09 2021-12-31 苹果公司 Device, method and graphical user interface for providing feedback on activation status
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9619036B2 (en) * 2012-05-11 2017-04-11 Comcast Cable Communications, Llc System and methods for controlling a user experience
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
US20140026101A1 (en) 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
CN104704457B (en) * 2012-10-11 2017-09-15 阿尔卑斯电气株式会社 Input unit and the multiple spot load testing method using the input unit
US8963865B2 (en) 2012-12-14 2015-02-24 Barnesandnoble.Com Llc Touch sensitive device with concentration mode
US9001064B2 (en) 2012-12-14 2015-04-07 Barnesandnoble.Com Llc Touch sensitive device with pinch-based archive and restore functionality
US9134892B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Drag-based content selection technique for touch screen UI
US9448719B2 (en) 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
US9134903B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Content selecting technique for touch screen UI
US9030430B2 (en) 2012-12-14 2015-05-12 Barnesandnoble.Com Llc Multi-touch navigation mode
US9477382B2 (en) 2012-12-14 2016-10-25 Barnes & Noble College Booksellers, Inc. Multi-page content selection technique
US9134893B2 (en) 2012-12-14 2015-09-15 Barnes & Noble College Booksellers, Llc Block-based content selecting technique for touch screen UI
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN104903834B (en) 2012-12-29 2019-07-05 苹果公司 For equipment, method and the graphic user interface in touch input to transition between display output relation
KR102001332B1 (en) 2012-12-29 2019-07-17 애플 인크. Device, method, and graphical user interface for determining whether to scroll or select contents
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
AU2013368440B2 (en) 2012-12-29 2017-01-05 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
JP5915552B2 (en) * 2013-01-23 2016-05-11 ソニー株式会社 Head mounted display, display device and input device
US9836154B2 (en) 2013-01-24 2017-12-05 Nook Digital, Llc Selective touch scan area and reporting techniques
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
US9448643B2 (en) 2013-03-11 2016-09-20 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus angle detection functionality
US9785259B2 (en) 2013-03-11 2017-10-10 Barnes & Noble College Booksellers, Llc Stylus-based slider functionality for UI control of computing device
US9632594B2 (en) 2013-03-11 2017-04-25 Barnes & Noble College Booksellers, Llc Stylus sensitive device with stylus idle functionality
US9946365B2 (en) 2013-03-11 2018-04-17 Barnes & Noble College Booksellers, Llc Stylus-based pressure-sensitive area for UI control of computing device
US9891722B2 (en) 2013-03-11 2018-02-13 Barnes & Noble College Booksellers, Llc Stylus-based notification system
US9626008B2 (en) 2013-03-11 2017-04-18 Barnes & Noble College Booksellers, Llc Stylus-based remote wipe of lost device
US9600053B2 (en) 2013-03-11 2017-03-21 Barnes & Noble College Booksellers, Llc Stylus control feature for locking/unlocking touch sensitive devices
US9261985B2 (en) 2013-03-11 2016-02-16 Barnes & Noble College Booksellers, Llc Stylus-based touch-sensitive area for UI control of computing device
US9766723B2 (en) 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
US9367161B2 (en) 2013-03-11 2016-06-14 Barnes & Noble College Booksellers, Llc Touch sensitive device with stylus-based grab and paste functionality
US9189084B2 (en) 2013-03-11 2015-11-17 Barnes & Noble College Booksellers, Llc Stylus-based user data storage and access
US9760187B2 (en) 2013-03-11 2017-09-12 Barnes & Noble College Booksellers, Llc Stylus with active color display/select for touch sensitive devices
US9146672B2 (en) 2013-04-10 2015-09-29 Barnes & Noble College Booksellers, Llc Multidirectional swipe key for virtual keyboard
US8966617B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Image pattern unlocking techniques for touch sensitive devices
US8963869B2 (en) 2013-04-23 2015-02-24 Barnesandnoble.Com Llc Color pattern unlocking techniques for touch sensitive devices
US9152321B2 (en) 2013-05-03 2015-10-06 Barnes & Noble College Booksellers, Llc Touch sensitive UI technique for duplicating content
US9612740B2 (en) 2013-05-06 2017-04-04 Barnes & Noble College Booksellers, Inc. Swipe-based delete confirmation for touch sensitive devices
US10019153B2 (en) 2013-06-07 2018-07-10 Nook Digital, Llc Scrapbooking digital content in computing devices using a swiping gesture
US9423932B2 (en) 2013-06-21 2016-08-23 Nook Digital, Llc Zoom view mode for digital content including multiple regions of interest
US9244603B2 (en) 2013-06-21 2016-01-26 Nook Digital, Llc Drag and drop techniques for discovering related content
US9400601B2 (en) 2013-06-21 2016-07-26 Nook Digital, Llc Techniques for paging through digital content on touch screen devices
JP2015032276A (en) * 2013-08-06 2015-02-16 株式会社アスコ Instruction input device, instruction input detection method, program and recording medium
AU2014315234A1 (en) 2013-09-03 2016-04-21 Apple Inc. User interface for manipulating user interface objects with magnetic properties
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US11068128B2 (en) 2013-09-03 2021-07-20 Apple Inc. User interface object manipulations in a user interface
US9575948B2 (en) 2013-10-04 2017-02-21 Nook Digital, Llc Annotation of digital content via selective fixed formatting
AU2013404001B2 (en) 2013-10-30 2017-11-30 Apple Inc. Displaying relevant user interface objects
US10620796B2 (en) 2013-12-19 2020-04-14 Barnes & Noble College Booksellers, Llc Visual thumbnail scrubber for digital content
US9588979B2 (en) 2013-12-31 2017-03-07 Barnes & Noble College Booksellers, Llc UI techniques for navigating a file manager of an electronic computing device
US9367212B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc User interface for navigating paginated digital content
US10915698B2 (en) 2013-12-31 2021-02-09 Barnes & Noble College Booksellers, Llc Multi-purpose tool for interacting with paginated digital content
US10331777B2 (en) 2013-12-31 2019-06-25 Barnes & Noble College Booksellers, Llc Merging annotations of paginated digital content
US10534528B2 (en) 2013-12-31 2020-01-14 Barnes & Noble College Booksellers, Llc Digital flash card techniques
US9424241B2 (en) 2013-12-31 2016-08-23 Barnes & Noble College Booksellers, Llc Annotation mode including multiple note types for paginated digital content
US9792272B2 (en) 2013-12-31 2017-10-17 Barnes & Noble College Booksellers, Llc Deleting annotations of paginated digital content
US9367208B2 (en) 2013-12-31 2016-06-14 Barnes & Noble College Booksellers, Llc Move icon to reveal textual information
US9591365B2 (en) 2014-02-26 2017-03-07 Rovi Guides, Inc. Methods and systems for supplementing media assets during fast-access playback operations
JP2015207034A (en) * 2014-04-17 2015-11-19 アルパイン株式会社 information input device and information input method
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9185062B1 (en) 2014-05-31 2015-11-10 Apple Inc. Message user interfaces for capture and transmittal of media and location content
CN104063280B (en) 2014-06-25 2017-09-12 华为技术有限公司 A kind of control method of intelligent terminal
CN116243841A (en) 2014-06-27 2023-06-09 苹果公司 Reduced size user interface
WO2016036509A1 (en) 2014-09-02 2016-03-10 Apple Inc. Electronic mail user interface
WO2016036416A1 (en) 2014-09-02 2016-03-10 Apple Inc. Button functionality
DE202015006142U1 (en) 2014-09-02 2015-12-09 Apple Inc. Electronic touch communication
WO2016036510A1 (en) 2014-09-02 2016-03-10 Apple Inc. Music user interface
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
CN104636071B (en) * 2015-02-28 2018-12-11 国网上海市电力公司 A kind of power operation monitoring center touch-screen gesture identifying system
US10365807B2 (en) 2015-03-02 2019-07-30 Apple Inc. Control of system zoom magnification using a rotatable input mechanism
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
CN104898946B (en) * 2015-05-25 2018-08-31 联想(北京)有限公司 A kind of control method and electronic equipment
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
CN106325574B (en) * 2015-06-26 2019-11-15 小米科技有限责任公司 The method and device of touch is monitored on the touchscreen
CN106662971A (en) * 2015-07-03 2017-05-10 华为技术有限公司 Operation method applied to terminal device, and terminal device
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN105183317A (en) * 2015-09-07 2015-12-23 联想(北京)有限公司 Method for processing file through pressure touch and electronic equipment
KR102398503B1 (en) 2015-09-09 2022-05-17 삼성전자주식회사 Electronic device for detecting pressure of input and operating method thereof
KR102408442B1 (en) 2015-10-20 2022-06-14 삼성디스플레이 주식회사 Touch sensor and liquid crystal display including the same
CN106814961A (en) * 2015-12-02 2017-06-09 西安中兴新软件有限责任公司 A kind of operating method and terminal
CN105528111A (en) * 2015-12-04 2016-04-27 广东欧珀移动通信有限公司 Touch control method and touch control system
CN105511680B (en) * 2015-12-28 2018-12-07 努比亚技术有限公司 Terminal screen touch device and method
CN105677220A (en) * 2015-12-31 2016-06-15 联想(北京)有限公司 Information processing method and electronic equipment
CN105718109B (en) * 2016-01-18 2018-11-27 广东欧珀移动通信有限公司 A kind of the weight processing method and mobile terminal of touching display screen
CN107193464A (en) * 2016-03-15 2017-09-22 百度在线网络技术(北京)有限公司 A kind of method and apparatus carried out in the current application of mobile device again by operation
DK201670596A1 (en) * 2016-06-12 2018-02-19 Apple Inc Digital touch on live video
CN106406571B (en) * 2016-08-31 2019-06-11 广州视源电子科技股份有限公司 Interactive identification method, interactive identification equipment and intelligent wearable device
CN106681553B (en) * 2016-12-13 2019-08-09 深圳市金立通信设备有限公司 A kind of adjusting method and terminal of touch-control pressure threshold
US10733468B2 (en) * 2018-04-23 2020-08-04 Novatek Microelectronics Corp. Finger stability detecting method and fingerprint sensing device
US11435830B2 (en) 2018-09-11 2022-09-06 Apple Inc. Content-based tactile outputs
US10712824B2 (en) 2018-09-11 2020-07-14 Apple Inc. Content-based tactile outputs
CN111443820B (en) * 2019-01-17 2021-09-21 北京钛方科技有限责任公司 Method and system for identifying pressing impulse of touch pad
WO2020147840A1 (en) 2019-01-17 2020-07-23 北京钛方科技有限责任公司 Touch pad pressure detection method and apparatus, storage medium and computer device
CN113574621A (en) * 2019-03-14 2021-10-29 提爱思科技股份有限公司 Operating device and vehicle door
KR20210041785A (en) * 2019-10-08 2021-04-16 삼성전자주식회사 Key structure, key input method and electonic device using it
CN113467695B (en) * 2021-09-03 2021-12-07 统信软件技术有限公司 Task execution method and device, computing device and storage medium

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US20020015064A1 (en) 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
CN101253466A (en) * 2004-08-02 2008-08-27 皇家飞利浦电子股份有限公司 System and method for enabling the modeling of virtual objects
US8665225B2 (en) 2007-01-07 2014-03-04 Apple Inc. Portable multifunction device, method, and graphical user interface for interpreting a finger gesture
KR101345755B1 (en) * 2007-09-11 2013-12-27 삼성전자주식회사 Apparatus and method for controlling operation in a mobile terminal
TWI352306B (en) * 2007-12-18 2011-11-11 Wistron Corp Touch-sensitive screen electronic apparatus and co
CN101488069A (en) * 2008-01-16 2009-07-22 宏达国际电子股份有限公司 Function switching method and system
US7924143B2 (en) * 2008-06-09 2011-04-12 Research In Motion Limited System and method for providing tactile feedback to a user of an electronic device
KR101495559B1 (en) 2008-07-21 2015-02-27 삼성전자주식회사 The method for inputing user commond and the electronic apparatus thereof
JP5100556B2 (en) 2008-07-30 2012-12-19 キヤノン株式会社 Information processing method and apparatus
US10983665B2 (en) * 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
JP4600548B2 (en) * 2008-08-27 2010-12-15 ソニー株式会社 REPRODUCTION DEVICE, REPRODUCTION METHOD, AND PROGRAM
JP5157969B2 (en) * 2009-03-09 2013-03-06 ソニー株式会社 Information processing apparatus, threshold setting method and program thereof
JP4723660B2 (en) * 2009-04-24 2011-07-13 京セラ株式会社 Input device
US9563350B2 (en) * 2009-08-11 2017-02-07 Lg Electronics Inc. Mobile terminal and method for controlling the same
US9430078B2 (en) 2009-08-12 2016-08-30 Google Technology Holdings LLC Printed force sensor within a touch screen
US8988191B2 (en) * 2009-08-27 2015-03-24 Symbol Technologies, Inc. Systems and methods for pressure-based authentication of an input on a touch screen
JP5482023B2 (en) * 2009-08-27 2014-04-23 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5304544B2 (en) * 2009-08-28 2013-10-02 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2011028944A1 (en) 2009-09-02 2011-03-10 Amazon Technologies, Inc. Touch-screen user interface
CN102023740A (en) * 2009-09-23 2011-04-20 比亚迪股份有限公司 Action identification method for touch device
US20110283212A1 (en) 2010-05-13 2011-11-17 Nokia Corporation User Interface

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10929007B2 (en) 2014-11-05 2021-02-23 Samsung Electronics Co., Ltd. Method of displaying object on device, device for performing the same, and recording medium for performing the method

Also Published As

Publication number Publication date
CN103562828B (en) 2018-01-19
US8508494B2 (en) 2013-08-13
KR101548852B1 (en) 2015-08-31
KR20180028067A (en) 2018-03-15
KR101915444B1 (en) 2018-11-05
CN108052222A (en) 2018-05-18
EP3392753A1 (en) 2018-10-24
KR101835188B1 (en) 2018-03-06
KR20150023890A (en) 2015-03-05
US20120306765A1 (en) 2012-12-06
WO2012166280A1 (en) 2012-12-06
EP2715495A1 (en) 2014-04-09
CN103562828A (en) 2014-02-05

Similar Documents

Publication Publication Date Title
KR101835188B1 (en) Using pressure differences with a touch-sensitive display screen
KR101545804B1 (en) Using pressure differences with a touch-sensitive display screen
KR101555795B1 (en) Using pressure differences with a touch-sensitive display screen
KR101551133B1 (en) Using pressure differences with a touch-sensitive display screen
JP6429981B2 (en) Classification of user input intent
US20160274711A1 (en) Method and terminal for inputting multiple events

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180810

Year of fee payment: 4