KR101753544B1 - 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 - Google Patents
터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 Download PDFInfo
- Publication number
- KR101753544B1 KR101753544B1 KR1020167002541A KR20167002541A KR101753544B1 KR 101753544 B1 KR101753544 B1 KR 101753544B1 KR 1020167002541 A KR1020167002541 A KR 1020167002541A KR 20167002541 A KR20167002541 A KR 20167002541A KR 101753544 B1 KR101753544 B1 KR 101753544B1
- Authority
- KR
- South Korea
- Prior art keywords
- user interface
- touch screen
- gesture
- touch
- screen display
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
Abstract
본 발명의 방법은 디스플레이 및 터치 감지형 표면을 갖는 액세스 가능한 전자 장치에 의해 수행된다. 본 발명의 방법은, 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하는 단계 - 현재 포커스는 제1 사용자 인터페이스 요소 상에 있음 - ; 터치 감지형 표면 상의 제1 손가락 제스처를 검출하는 단계 - 제1 손가락 제스처는 터치 감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와 접촉하는 것과 독립적임 - ; 제1 손가락 제스처의 검출에 응답하여, 현재 포커스를 복수의 사용자 인터페이스 요소 중 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 중 제2 사용자 인터페이스 요소로 변경하는 단계; 및 제2 사용자 인터페이스 요소와 연관된 접근성 정보를 출력하는 단계를 포함한다.
Description
개시된 실시예들은 일반적으로 시력이 손상된 사람들을 위한 전자 장치에 관한 것으로, 더 구체적으로는 터치 스크린 디스플레이 또는 트랙 패드와 같은 터치 감지형 표면을 이용하여 접근성을 제공하는 전자 장치에 관한 것이다.
최근, 컴퓨터 및 다른 전자 장치들을 위한 입력 장치로서 터치 감지형 표면을 이용하는 것이 상당히 증가하였다. 이러한 터치 감지형 표면의 이용이 증가함에 따라, 특히 시력이 손상된 사람들을 위해 액세스가능한 네비게이션 피드백(accessible navigation feedback)을 제공하는 터치 기반 네비게이션 방법에 대한 필요성도 증가하였다 (예를 들어, 가청 피드백, 햅틱 피드백 및/또는 점자 출력). 예를 들어, 저시력 사용자, 맹인 사용자, 난독증 사용자 또는 학습장애를 가진 다른 사람들, 또는 심지어는 단순히 조작 동안 장치를 보지 않고서 장치를 이용하기를 원하거나 그럴 필요가 있는 정상 시력의 사용자들까지도, 장치 상의 사용자 인터페이스 요소들 간에서의 터치 기반 네비게이션을 허용하는 접근성 사용자 인터페이스(accessibility user interfaces)로부터 혜택을 받을 수 있다. 구체적으로, 맹인 사용자에게 있어서, 효과적인 접근성 인터페이스는 단순한 옵션이 아니고, 정상 시력의 사용자로부터의 도움 없이 이러한 장치들을 이용하는 데에 필수적인 것이다.
불행하게도, 터치 감지형 표면을 구비하는 장치 상의 현존하는 접근성 인터페이스들은 다루기가 복잡하고 비효율적인 상태이다. 사용자 인터페이스 요소들의 네비게이션 및 활성화가 어려운 경우가 많으며, 따라서 시력이 손상된 사용자에 대한 상당한 인지적(cognitive) 부담을 발생시킨다. 또한, 현존하는 접근성 방법들은 필요 이상으로 오래 걸리며, 따라서 에너지를 낭비한다. 이러한 에너지 낭비에 대한 고려는 배터리로 작동되는 장치들에서 특히 중요하다.
따라서, 더 빠르고 더 효율적인 터치 기반 접근성 방법 및 인터페이스를 갖는 터치 감지형 표면(예를 들어, 터치 스크린 디스플레이 및/또는 터치 패드)을 갖는 전자 장치들이 필요하다. 그러한 방법 및 인터페이스는 사용자 인터페이스 개체들과의 상호작용 및 네비게이션을 위한 현존하는 접근성 방법들을 보완하거나 대체할 수 있다. 그러한 방법 및 인터페이스는 시력이 손상된 사용자에 대한 인지적 부담을 감소시키고, 더 효율적인 인간-머신 인터페이스를 만들어낸다. 배터리로 작동되는 장치들에서, 그러한 방법 및 인터페이스는 전력을 보존하고, 배터리 충전 간의 시간을 증가시킨다.
터치 감지형 표면을 갖는 장치에 관련된 상기의 결점들 및 기타 사용자 인터페이스 접근성 문제들은 개시된 장치들에 의해 감소되거나 제거된다. 일부 실시예들에서, 장치는 데스크탑 컴퓨터이다. 일부 실시예들에서, 장치는 휴대용이다 (예를 들어, 노트북 컴퓨터 또는 핸드핼드형 장치). 일부 실시예들에서, 장치는 터치패드("트랙 패드"라고도 알려져 있음)를 갖는다. 일부 실시예들에서, 장치는 터치 감지 디스플레이("터치 스크린" 또는 "터치 스크린 디스플레이"라고도 알려져 있음)를 갖는다. 일부 실시예들에서, 장치는 그래픽 사용자 인터페이스(GUI), 하나 이상의 프로세서, 메모리 및 하나 이상의 모듈, 복수의 기능을 수행하기 위해 메모리 내에 저장된 프로그램 또는 명령어들의 집합을 갖는다. 일부 실시예들에서, 사용자는 주로 터치 감지형 표면 상에서의 손가락 접촉 및 제스처를 통해 GUI와 상호작용한다. 일부 실시예들에서, 기능들은 프리젠팅(presenting), 워드프로세싱, 웹사이트 생성, 디스크 저작(disk authoring), 스프레드시트 작성, 게임 플레이, 전화걸기, 화상 회의, 이메일, 인스턴스 메시징, 음성 메모, 웹 브라우징, 디지털 음악 재생, 디지털 콘텐츠의 구매 및/또는 다운로드, 및/또는 디지털 비디오 재생을 포함할 수 있다. 이러한 기능들을 수행하기 위한 실행가능한 명령어들은 하나 이상의 프로세서에 의한 실행을 위해 구성된 컴퓨터 판독가능한 저장 매체 또는 다른 컴퓨터 프로그램 제품 내에 포함될 수 있다.
일부 실시예들에서, 접근성 방법은 터치 감지형 표면 및 디스플레이를 갖는 전자 장치에서 수행된다. 방법은 터치 스크린 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하는 것을 포함하며, 현재의 포커스는 제1 사용자 인터페이스 요소 상에 있다. 방법은 또한 터치 스크린 디스플레이 상에서 제1 손가락 제스처를 검출하고, 제1 손가락 제스처는 제2 사용자 인터페이스 요소에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적이며, 방법은 이에 응답하여, 현재의 포커스를 복수의 사용자 인터페이스 요소 내의 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 내의 제2 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소에 연관된 접근성 정보를 출력한다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면 및 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하고 -현재의 포커스는 제1 사용자 인터페이스 요소 상에 있음- ; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하고 -제1 손가락 제스처는 제2 사용자 인터페이스 요소에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- , 제1 손가락 제스처를 검출한 것에 응답하여, 현재의 포커스를 복수의 사용자 인터페이스 요소 내의 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 내의 제2 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소에 연관된 접근성 정보를 출력하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체에는, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치에 의해 실행될 때, 장치로 하여금, 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하고 -현재의 포커스는 제1 사용자 인터페이스 요소 상에 있음- ; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하고 -제1 손가락 제스처는 제2 사용자 인터페이스 요소에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 제1 손가락 제스처를 검출한 것에 응답하여, 현재의 포커스를 복수의 사용자 인터페이스 요소 내의 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 내의 제2 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소에 연관된 접근성 정보를 출력하게 하기 위한 명령어들이 저장된다.
일부 실시예들에서, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치 상의 그래픽 사용자 인터페이스("GUI")는 디스플레이 상에 복수의 사용자 인터페이스 요소를 포함하고, 현재의 포커스는 제1 사용자 인터페이스 요소 상에 있다. 터치 감지형 표면 상에서 제1 손가락 제스처를 검출한 것에 응답하여 -제1 손가락 제스처는 제2 사용자 인터페이스 요소에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- , 현재의 포커스는 복수의 사용자 인터페이스 요소 내의 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 내의 제2 사용자 인터페이스 요소로 변경되고, 제2 사용자 인터페이스 요소에 연관된 접근성 정보가 출력된다.
일부 실시예들에서, 액세스가능한 전자 장치는 디스플레이; 터치 감지형 표면; 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하기 위한 수단 -현재의 포커스는 제1 사용자 인터페이스 요소 상에 있음- ; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하기 위한 수단 -제1 손가락 제스처는 제2 사용자 인터페이스 요소에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 제1 손가락 제스처를 검출한 것에 응답하여, 현재의 포커스를 복수의 사용자 인터페이스 요소 내의 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 내의 제2 사용자 인터페이스 요소로 변경하기 위한 수단 및 제2 사용자 인터페이스 요소에 연관된 접근성 정보를 출력하기 위한 수단을 포함한다.
일부 실시예들에서, 접근성 방법은 디스플레이 및 터치 감지형 표면을 구비하는 전자 장치에서 수행된다. 방법은 디스플레이 상에 문서의 제1 섹션을 디스플레이하는 단계 -문서는 복수의 섹션을 가짐- ; 문서의 제1 섹션에 대응하는 가청 문서 섹션 표시(audible document section indicia)를 출력하는 단계; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하는 단계; 제1 손가락 제스처를 검출한 것에 응답하여, 문서의 제1 섹션의 디스플레이를 중단하는 단계; 디스플레이 상에 문서의 제2 섹션을 디스플레이하는 단계 -문서의 제2 섹션은 문서의 제1 섹션에 인접함- ; 및 문서의 제2 섹션에 대응하는 가청 문서 섹션 표시를 출력하는 단계를 포함한다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면 및 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은 디스플레이 상에 문서의 제1 섹션을 디스플레이하고 -문서는 복수의 섹션을 가짐- ; 문서의 제1 섹션에 대응하는 가청 문서 섹션 표시를 출력하고; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하고; 제1 손가락 제스처를 검출한 것에 응답하여: 문서의 제1 섹션의 디스플레이를 중단하고, 디스플레이 상에 문서의 제2 섹션을 디스플레이하고 -문서의 제2 섹션은 문서의 제1 섹션에 인접함- , 문서의 제2 섹션에 대응하는 가청 문서 섹션 표시를 출력하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체에는, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치에 의해 실행될 때, 장치로 하여금, 디스플레이 상에 문서의 제1 섹션을 디스플레이하고 -문서는 복수의 섹션을 가짐- ; 문서의 제1 섹션에 대응하는 가청 문서 섹션 표시를 출력하고; 디스플레이 상에서 제1 손가락 제스처를 검출하고, 제1 손가락 제스처를 검출한 것에 응답하여: 문서의 제1 섹션의 디스플레이를 중단하고; 디스플레이 상에 문서의 제2 섹션을 디스플레이하고 -문서의 제2 섹션은 문서의 제1 섹션에 인접함- ; 문서의 제2 섹션에 대응하는 제1 가청 문서 섹션 표시를 출력하게 하기 위한 명령어들이 저장되어 있다.
일부 실시예들에서, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치 상의 그래픽 사용자 인터페이스("GUI")는 문서의 제1 섹션을 포함하는데, 문서는 복수의 섹션을 갖는다. 터치 감지형 표면 상에서 제1 손가락 제스처를 검출한 것에 응답하여: 문서의 제2 섹션이 디스플레이되어, 디스플레이된 문서의 제1 섹션을 대체하며, 문서의 제2 섹션은 문서의 제1 섹션에 인접하고, 문서의 제2 섹션에 대응하는 가청 문서 섹션 표시가 출력된다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면; 디스플레이; 터치 스크린 디스플레이 상에 문서의 제1 섹션을 디스플레이하기 위한 수단 -문서는 복수의 섹션을 가짐- ; 문서의 제1 섹션에 대응하는 가청 문서 섹션 표시를 출력하기 위한 수단; 터치 감지형 표면 상에서 제1 손가락 제스처를 검출하기 위한 수단; 및 제1 손가락 제스처를 검출한 것에 응답하여: 문서의 제1 섹션의 디스플레이를 중단하기 위한 수단; 디스플레이 상에 문서의 제2 섹션을 디스플레이하기 위한 수단 - 문서의 제2 섹션은 문서의 제1 섹션에 인접함 -; 및 문서의 제2 섹션에 대응하는 제1 가청 문서 섹션 표시를 출력하기 위한 수단을 포함한다.
일부 실시예들에서, 방법은 터치 감지형 표면 및 디스플레이를 구비하는 액세스가능한 전자 장치에서 수행된다. 방법은 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하는 단계; 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출하는 단계; 및 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한(navigable) 유닛 타입에 따라 디스플레이 상의 복수의 사용자 인터페이스 요소를 네비게이트하는 단계 -현재의 네비게이션가능한 유닛 타입은 복수의 네비게이션가능한 유닛 타입으로부터 선택된 제1 네비게이션가능한 유닛 타입으로 설정됨- 를 포함한다. 방법은 또한 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출하는 단계 -제1 사용자 인터페이스 네비게이션 설정 제스처는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 복수의 네비게이션가능한 유닛 타입에서 선택된 제2 네비게이션가능한 유닛 타입으로 변경하는 단계; 및 제2 네비게이션가능한 유닛 타입에 관한 접근성 정보를 출력하는 단계를 포함한다. 방법은, 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 제2 네비게이션가능한 유닛 타입으로 변경한 후, 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출하는 단계 -제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일함- ; 및 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 디스플레이 상의 복수의 사용자 인터페이스 요소 내에서 네비게이트하는 단계 -현재의 네비게이션가능한 유닛 타입은 제2 네비게이션가능한 유닛 타입으로 설정됨- 를 포함한다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면 및 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하고; 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출하고; 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소 내를 네비게이트 -현재의 네비게이션가능한 유닛 타입은 복수의 네비게이션가능한 유닛 타입으로부터 선택된 제1 네비게이션가능한 유닛 타입으로 설정됨- 하기 위한 명령어들을 포함한다. 하나 이상의 프로그램은 또한 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출하고 -제1 사용자 인터페이스 네비게이션 설정 제스처는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 복수의 네비게이션가능한 유닛 타입에서 선택된 제2 네비게이션가능한 유닛 타입으로 변경하고, 제2 네비게이션가능한 유닛 타입에 관한 접근성 정보를 출력하고; 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 제2 네비게이션가능한 유닛 타입으로 변경한 후, 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출하고 -제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일함- ; 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 디스플레이 상의 복수의 사용자 인터페이스 요소 내에서 네비게이트 -현재의 네비게이션가능한 유닛 타입은 제2 네비게이션가능한 유닛 타입으로 설정됨- 하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체에는, 디스플레이 및 터치 감지형 표면을 갖는 액세스가능한 전자 장치에 의해 실행될 때, 그 장치로 하여금, 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하고; 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출하고; 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소 내에서 네비게이트하고 -현재의 네비게이션가능한 유닛 타입은 복수의 네비게이션가능한 유닛 타입으로부터 선택된 제1 네비게이션가능한 유닛 타입으로 설정됨- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출하고 -제1 사용자 인터페이스 네비게이션 설정 제스처는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출한 것에 응답하여: 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 복수의 네비게이션가능한 유닛 타입에서 선택된 제2 네비게이션가능한 유닛 타입으로 변경하고, 제2 네비게이션가능한 유닛 타입에 관한 접근성 정보를 출력하게 하는 명령어들이 저장되어 있다. 하나 이상의 프로그램은 또한 실행될 때, 장치로 하여금 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 제2 네비게이션가능한 유닛 타입으로 변경한 후, 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출하고 -제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일함- ; 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소 내에서 네비게이트하게 -현재의 네비게이션가능한 유닛 타입은 제2 네비게이션가능한 유닛 타입으로 설정됨- 하기 위한 명령어들을 포함한다.
일부 실시예들에서, 터치 감지형 표면 및 디스플레이를 구비하는 액세스가능한 전자 장치 상의 GUI는 디스플레이 상의 복수의 사용자 인터페이스 요소를 포함한다. 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소에서의 네비게이션이 발생하는데, 현재의 네비게이션가능한 유닛 타입은 복수의 네비게이션가능한 유닛 타입으로부터 선택된 제1 네비게이션가능한 유닛 타입으로 설정된다. 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출한 것에 응답하여 -제1 사용자 인터페이스 네비게이션 설정 제스처는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임 -: 현재의 네비게이션가능한 유닛 타입은 제1 네비게이션가능한 유닛 타입으로부터 복수의 네비게이션가능한 유닛 타입에서 선택된 제2 네비게이션가능한 유닛 타입으로 변경되고, 제2 네비게이션가능한 유닛 타입에 관한 접근성 정보가 출력된다. 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 제2 네비게이션가능한 유닛 타입으로 변경한 후, 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여 -제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일함- , 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소에서의 네비게이션이 발생하며, 현재의 네비게이션가능한 유닛 타입은 제2 네비게이션가능한 유닛 타입으로 설정된다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면; 디스플레이; 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이하기 위한 수단; 및 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출하기 위한 수단을 포함한다. 액세스가능한 전자 장치는, 터치 감지형 표면 상에서 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소 내에서 네비게이트하기 위한 수단 -현재의 네비게이션가능한 유닛 타입은 복수의 네비게이션가능한 유닛 타입으로부터 선택된 제1 네비게이션가능한 유닛 타입으로 설정됨- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출하기 위한 수단 -제1 사용자 인터페이스 네비게이션 설정 제스처는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 터치 감지형 표면 상의 위치를 접촉하는 것에 독립적임- ; 터치 감지형 표면 상에서 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 복수의 네비게이션가능한 유닛 타입에서 선택된 제2 네비게이션가능한 유닛 타입으로 변경하기 위한 수단; 제2 네비게이션가능한 유닛 타입에 관한 접근성 정보를 출력하기 위한 수단; 현재의 네비게이션가능한 유닛 타입을 제1 네비게이션가능한 유닛 타입으로부터 제2 네비게이션가능한 유닛 타입으로 변경한 후, 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출하기 위한 수단 -제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일함- ; 및 터치 감지형 표면 상에서 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한 것에 응답하여, 현재의 네비게이션가능한 유닛 타입에 따라 복수의 사용자 인터페이스 요소 내에서 네비게이트하기 위한 수단 -현재의 네비게이션가능한 유닛 타입은 제2 네비게이션가능한 유닛 타입으로 설정됨- 을 더 포함한다.
일부 실시예들에서, 방법은 터치 감지형 표면 및 디스플레이를 구비하는 액세스가능한 전자 장치에서 수행된다. 방법은 디스플레이의 적어도 제1 부분을 터치 감지형 표면에 맵핑하는 단계; 디스플레이 상에 복수의 사용자 인터페이스 컨테이너를 동시에 디스플레이하는 단계; 복수의 사용자 인터페이스 컨테이너에서 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출하는 단계; 및 사용자 인터페이스 컨테이너 선택 이벤트를 검출한 것에 응답하여, 디스플레이의 제1 부분을 터치 감지형 표면에 맵핑하는 것을 중단하고, 제1 사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동일한 공간을 차지하도록 비례적으로(proportionally) 맵핑하는 단계를 포함한다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면 및 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은 디스플레이의 적어도 제1 부분을 터치 감지형 표면에 맵핑하고; 디스플레이 상에 복수의 사용자 인터페이스 컨테이너를 동시에 디스플레이하고; 복수의 사용자 인터페이스 컨테이너에서 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출하고; 사용자 인터페이스 컨테이너 선택 이벤트를 검출한 것에 응답하여, 디스플레이의 제1 부분을 터치 감지형 표면에 맵핑하는 것을 중단하고, 제1 사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동일한 공간을 차지하도록 비례적으로 맵핑하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체에는, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치에 의해 실행될 때, 장치로 하여금, 디스플레이의 적어도 제1 부분을 터치 감지형 표면에 맵핑하고; 디스플레이 상에 복수의 사용자 인터페이스 컨테이너를 동시에 디스플레이하고; 복수의 사용자 인터페이스 컨테이너에서 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출하고; 사용자 인터페이스 컨테이너 선택 이벤트를 검출한 것에 응답하여, 디스플레이의 제1 부분을 터치 감지형 표면에 맵핑하는 것을 중단하고, 제1 사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동일한 공간을 차지하도록 비례적으로 맵핑하게 하는 명령어들이 저장되어 있다.
일부 실시예들에서, 디스플레이 및 터치 감지형 표면을 구비하는 액세스가능한 전자 장치 상의 GUI는 디스플레이 상에 동시에 디스플레이되는 복수의 사용자 인터페이스 컨테이너를 포함한다. 디스플레이의 적어도 제1 부분은 터치 감지형 표면에 맵핑된다. 복수의 사용자 인터페이스 컨테이너에서 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출한 것에 응답하여, 디스플레이의 제1 부분이 터치 감지형 표면에 맵핑되는 것을 중단하고, 제1 사용자 인터페이스 컨테이너는 터치 감지형 표면과 실질적으로 동일한 공간을 차지하도록 비례적으로 맵핑된다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 감지형 표면; 디스플레이; 디스플레이의 적어도 제1 부분을 터치 감지형 표면에 맵핑하기 위한 수단; 디스플레이 상에 복수의 사용자 인터페이스 컨테이너를 동시에 디스플레이하기 위한 수단; 복수의 사용자 인터페이스 컨테이너에서 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출하기 위한 수단; 및 사용자 인터페이스 컨테이너 선택 이벤트를 검출한 것에 응답하여, 디스플레이의 제1 부분을 터치 감지형 표면에 맵핑하는 것을 중단하기 위한 수단 및 제1 사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동일한 공간을 차지하도록 비례적으로 맵핑하기 위한 수단을 포함한다.
일부 실시예들에서, 접근성 방법은 중심을 갖는 터치 감지 디스플레이를 구비하는 전자 장치에서 수행된다. 방법은 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하는 단계; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하는 단계 -제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함함- ; 동시적인 다중 손가락 접촉들을 위한 경계 박스(bounding box)를 결정하는 단계; 및 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠를 제1 배율보다 큰 제2 배율로 확대하는 단계를 포함한다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 중심을 갖는 터치 스크린 디스플레이를 구비하는 액세스가능한 전자 장치 상의 그래픽 사용자 인터페이스는 터치 스크린 디스플레이 상에서 제1 배율로 디스플레이되는 콘텐츠를 포함한다. 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처가 검출된다. 제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함한다. 동시적인 다중 손가락 접촉들을 위한 경계 박스가 결정된다. 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠가 제1 배율보다 큰 제2 배율로 확대된다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 액세스가능한 전자 장치는 중심을 갖는 터치 스크린 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하고; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하고 -제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함함- ; 동시적인 다중 손가락 접촉들을 위한 경계 박스를 결정하고; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠를 제1 배율보다 큰 제2 배율로 확대하기 위한 명령어들을 포함한다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체는 중심을 갖는 터치 스크린 디스플레이를 구비하는 액세스가능한 전자 장치에 의해 실행될 때, 장치로 하여금, 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하고; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하고 -제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함함- ; 동시적인 다중 손가락 접촉들을 위한 경계 박스를 결정하고; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠를 제1 배율보다 큰 제2 배율로 확대하게 하는 명령어들을 저장한다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 액세스가능한 전자 장치는 중심을 갖는 터치 스크린 디스플레이; 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하기 위한 수단; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하기 위한 수단 -제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함함- ; 동시적인 다중 손가락 접촉들을 위한 경계 박스를 결정하기 위한 수단; 및 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠를 제1 배율보다 큰 제2 배율로 확대하기 위한 수단을 포함한다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 액세스가능한 전자 장치에서 사용하기 위한 정보 처리 장치가 제공되는데, 여기에서 액세스가능한 전자 장치는 중심을 갖는 터치 스크린 디스플레이를 포함한다. 정보 처리 장치는 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하기 위한 수단; 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하기 위한 수단 -제1 다중 손가락 제스처를 검출하는 것은 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 것을 포함함- ; 동시적인 다중 손가락 접촉들을 위한 경계 박스를 결정하기 위한 수단; 및 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출한 것에 응답하여, 터치 스크린 디스플레이 상에서 경계 박스 내의 점 주위에서 사용자 인터페이스 내의 콘텐츠를 제1 배율보다 큰 제2 배율로 확대하기 위한 수단을 포함한다. 경계 박스 내의 점는 경계 박스가 터치 스크린 디스플레이의 중심에 위치된 때 경계 박스 내의 디폴트 위치에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 벗어나서 위치될 때, 경계 박스 내의 점는 경계 박스 내의 디폴트 위치로부터 경계 박스의 개별 에지를 향해, 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 경계 박스의 변위에 대응하는 양만큼 옮겨진다.
일부 실시예들에서, 터치 스크린 디스플레이를 구비하는 액세스가능한 전자 장치에서 방법이 수행된다. 방법은, 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 디스플레이하는 단계; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉을 검출하는 단계; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉의 이동을 검출하는 단계; 복수의 동시적인 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤하는 단계; 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프를 검출하는 단계; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심부에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단하는 단계; 및 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠를 스크롤하는 단계를 포함한다.
일부 실시예들에서, 터치 스크린 디스플레이를 구비하는 액세스가능한 전자 장치 상의 GUI는 터치 스크린 상에 디스플레이되는 콘텐츠를 포함한다. 복수의 동시적인 손가락 접촉이 터치 스크린 디스플레이 상에서 검출된다. 터치 스크린 디스플레이 상에서의 복수의 동시적인 손가락 접촉의 이동이 검출된다. 사용자 인터페이스 내의 콘텐츠는 복수의 동시적인 손가락 접촉의 이동에 따라 스크롤된다. 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프가 검출된다. 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤이 중단된다. 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠가 스크롤된다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 스크린 디스플레이, 하나 이상의 프로세서, 메모리, 및 메모리 내에 저장되고 하나 이상의 프로세서에 의해 실행되도록 구성된 하나 이상의 프로그램을 포함한다. 하나 이상의 프로그램은, 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 디스플레이하고; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉을 검출하고; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉의 이동을 검출하고; 복수의 동시적인 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤하고; 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프를 검출하고; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단하고; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠를 스크롤하기 위한 명령어들을 포함한다.
일부 실시예들에서, 컴퓨터 판독가능한 저장 매체에는, 터치 스크린 디스플레이를 구비하는 액세스가능한 전자 장치에 의해 실행될 때, 장치로 하여금, 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 디스플레이하고; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉을 검출하고; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉의 이동을 검출하고; 복수의 동시적인 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤하고; 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프를 검출하고; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단하고; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠를 스크롤하게 하기 위한 명령어들이 저장되어 있다.
일부 실시예들에서, 액세스가능한 전자 장치는 터치 스크린 디스플레이; 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 디스플레이하기 위한 수단; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉을 검출하기 위한 수단; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉의 이동을 검출하기 위한 수단; 복수의 동시적인 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤하기 위한 수단; 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프를 검출하기 위한 수단; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단하기 위한 수단; 및 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠를 스크롤하기 위한 수단을 포함한다.
일부 실시예들에서, 액세스가능한 전자 장치 내에서 사용하기 위한 정보 처리 장치가 제공되는데, 액세스가능한 전자 장치는 터치 스크린 디스플레이를 포함한다. 정보 처리 장치는 터치 스크린 디스플레이 상에서 사용자 인터페이스 내의 콘텐츠를 디스플레이하기 위한 수단; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉을 검출하기 위한 수단; 터치 스크린 디스플레이 상에서 복수의 동시적인 손가락 접촉의 이동을 검출하기 위한 수단; 복수의 동시적인 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤하기 위한 수단; 남아있는 한 손가락 접촉을 계속하여 검출하면서, 복수의 동시적인 손가락 접촉 중 하나를 제외한 전부의 리프트오프를 검출하기 위한 수단; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단하기 위한 수단; 남아있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 보더 부분에 위치될 때, 사용자 인터페이스 내의 콘텐츠를 스크롤하기 위한 수단을 포함한다.
따라서, 디스플레이 및 터치 감지형 표면을 갖는 전자 장치들에 새롭고 개선된 접근성 방법 및 사용자 인터페이스가 제공되고, 따라서 유효성, 효율성 및 그러한 장치들에 대한 사용자 만족도가 증가된다. 그러한 방법 및 인터페이스는 현존하는 접근성 방법들을 보완하거나 대체할 수 있다.
본 발명의 상술한 실시예들 및 추가의 실시예들을 더 잘 이해하기 위해, 도면들 전체에서 유사한 참조 번호들이 대응 부분들을 참조하고 있는 이하의 도면들과 함께, 아래의 실시예들의 설명이 참조되어야 한다.
도 1a 및 도 1b는 일부 실시예들에 따른 터치 감지 디스플레이를 갖는 휴대용 다기능 장치들을 도시한 블록도이다.
도 2는 일부 실시예들에 따른 터치 스크린을 갖는 휴대용 다기능 장치를 도시한 것이다.
도 3은 일부 실시예들에 따른 디스플레이 및 터치 감지형 표면을 구비하는 예시적인 컴퓨팅 장치의 블록도이다.
도 4a-4b는 일부 실시예들에 따른 휴대용 다기능 장치 상의 애플리케이션들의 메뉴를 위한 예시적인 사용자 인터페이스들을 도시한 것이다.
도 4c는 일부 실시예들에 따른 휴대용 전자 장치를 잠금해제하기 위한 예시적인 사용자 인터페이스를 도시한 것이다.
도 5a-5qq는 일부 실시예들에 따른 터치 감지형 표면을 구비하는 전자 장치를 위한 접근성 사용자 인터페이스들을 도시한 것이다.
도 6a-6t는 일부 실시예들에 따라 개별 사용자 인터페이스 컨테이너들을 터치 감지형 표면에 맵핑하는 접근성 사용자 인터페이스들을 도시한 것이다.
도 7a-7c는 일부 실시예들에 따른 사용자 인터페이스 요소들 간에서의 터치 기반 네비게이션을 위한 접근성 방법을 도시한 흐름도들이다.
도 8a-8b는 일부 실시예들에 따라 문서 섹션 표시를 전달하기 위한 접근성 방법을 도시한 흐름도들이다.
도 9a-9b는 일부 실시예들에 따라 사용자 인터페이스 네비게이션 설정들을 조절하기 위해 위치 독립적인 제스처들을 사용하는 접근성 방법을 도시한 흐름도들이다.
도 10a-10c는 일부 실시예들에 따라 사용자 인터페이스 컨테이너들을 통해 네비게이트하기 위한 접근성 방법을 도시한 흐름도들이다.
도 11a-11b는 일부 실시예들에 따라 다중 손가락 경계 박스 내의 점 주위에서 확대를 수행하기 위한 접근성 방법을 도시한 흐름도들이다.
도 12a-12b는 일부 실시예들에 따른 싱글손가락 푸시 패닝을 위한 접근성 방법을 도시한 흐름도들이다.
도 1a 및 도 1b는 일부 실시예들에 따른 터치 감지 디스플레이를 갖는 휴대용 다기능 장치들을 도시한 블록도이다.
도 2는 일부 실시예들에 따른 터치 스크린을 갖는 휴대용 다기능 장치를 도시한 것이다.
도 3은 일부 실시예들에 따른 디스플레이 및 터치 감지형 표면을 구비하는 예시적인 컴퓨팅 장치의 블록도이다.
도 4a-4b는 일부 실시예들에 따른 휴대용 다기능 장치 상의 애플리케이션들의 메뉴를 위한 예시적인 사용자 인터페이스들을 도시한 것이다.
도 4c는 일부 실시예들에 따른 휴대용 전자 장치를 잠금해제하기 위한 예시적인 사용자 인터페이스를 도시한 것이다.
도 5a-5qq는 일부 실시예들에 따른 터치 감지형 표면을 구비하는 전자 장치를 위한 접근성 사용자 인터페이스들을 도시한 것이다.
도 6a-6t는 일부 실시예들에 따라 개별 사용자 인터페이스 컨테이너들을 터치 감지형 표면에 맵핑하는 접근성 사용자 인터페이스들을 도시한 것이다.
도 7a-7c는 일부 실시예들에 따른 사용자 인터페이스 요소들 간에서의 터치 기반 네비게이션을 위한 접근성 방법을 도시한 흐름도들이다.
도 8a-8b는 일부 실시예들에 따라 문서 섹션 표시를 전달하기 위한 접근성 방법을 도시한 흐름도들이다.
도 9a-9b는 일부 실시예들에 따라 사용자 인터페이스 네비게이션 설정들을 조절하기 위해 위치 독립적인 제스처들을 사용하는 접근성 방법을 도시한 흐름도들이다.
도 10a-10c는 일부 실시예들에 따라 사용자 인터페이스 컨테이너들을 통해 네비게이트하기 위한 접근성 방법을 도시한 흐름도들이다.
도 11a-11b는 일부 실시예들에 따라 다중 손가락 경계 박스 내의 점 주위에서 확대를 수행하기 위한 접근성 방법을 도시한 흐름도들이다.
도 12a-12b는 일부 실시예들에 따른 싱글손가락 푸시 패닝을 위한 접근성 방법을 도시한 흐름도들이다.
이하에서는, 실시예들이 상세하게 참조될 것이며, 그 실시예들의 예들이 첨부 도면들에 도시되어 있다. 이하의 상세한 설명에서, 본 발명의 완전한 이해를 제공하기 위해, 다수의 구체적인 상세들이 제시된다. 그러나, 본 기술분야에 통상의 지식을 가진 자라면, 본 발명이 그러한 구체적인 상세 없이도 실시될 수 있음을 분명히 알 것이다. 다른 경우들에서, 공지된 방법들, 절차들, 컴포넌트들, 회로들 및 네트워크들은 실시예들의 양태들을 불필요하게 모호하게 하지 않기 위해, 상세하게 설명되지 않는다.
또한, 다양한 요소들을 설명하기 위해 제1, 제2 등의 용어가 여기에서 이용될 수 있지만, 이러한 요소들은 이러한 용어들에 의해 제한되어서는 안 된다는 점을 이해할 것이다. 이러한 용어들은 한 요소를 다른 요소로부터 구별하기 위해서만 이용된다. 예를 들어, 본 발명의 범위를 벗어나지 않고서, 제1 접촉이 제2 접촉이라고 칭해질 수 있으며, 마찬가지로, 제2 접촉이 제1 접촉이라고 칭해질 수 있다. 제1 접촉 및 제2 접촉 둘 다가 접촉이지만, 이들은 동일한 접촉은 아니다.
여기에서의 발명의 설명에서 이용되는 용어들은 오직 특정 실시예들을 설명하기 위한 것이며, 발명을 제한하도록 의도된 것이 아니다. 발명의 설명 및 첨부된 청구항들에서 이용될 때, 단수 형태("a", "an" 및 "the")는 문맥상 명백하게 다르게 나타나지 않는 한은, 복수 형태도 물론 포함하도록 의도된 것이다. "표시(indicia)"의 사용은 그 용어의 단수 용법("indicium") 또는 복수 형태("indicia") 중 어느 하나 또는 둘 다를 나타낼 수 있으며, 그 반대도 마찬가지이다.
또한, 여기에서 사용될 때의 "및/또는"이라는 용어는 나열된 관련 항목들 중 하나 이상의 임의의 모든 가능한 조합들을 참조하며 그들을 포괄하는 것임을 이해할 것이다. 본 명세서에서 사용될 때의 "포함한다(comprises)" 및/또는 "포함하는(comprising)"이라는 용어는 명시된 특징들, 정수들, 단계들, 동작들, 요소들 및/또는 컴포넌트들의 존재를 지정하지만, 하나 이상의 다른 특징들, 정수들, 단계들, 동작들, 요소들, 컴포넌트들 및/또는 그들의 그룹의 존재 또는 추가를 배제하지 않음을 더 이해할 것이다.
여기에서 이용될 때, "~는 경우(if)"라는 용어는 "~할 때(when)" 또는 "~ 시(upon)", 또는 문맥에 따라 "결정한 것에 응답하여(in response to determining)" 또는 "검출한 것에 응답하여"를 의미하는 것으로 해석될 수 있다. 마찬가지로, "결정된 경우" 또는 "[명시된 조건 또는 이벤트가] 검출된 경우"라는 구문은 문맥에 따라, "결정 시" 또는 "결정한 것에 응답하여" 또는 "[명시된 조건 또는 이벤트의] 검출 시", 또는 "[명시된 조건 또는 이벤트를] 검출한 것에 응답하여"를 의미하는 것으로 해석될 수 있다.
컴퓨팅 장치들, 그러한 장치들을 위한 사용자 인터페이스들, 및 그러한 장치들을 이용하기 위한 관련 프로세스들의 실시예들이 설명된다. 일부 실시예들에서, 컴퓨팅 장치는 PDA 및/또는 음악 재생기 기능과 같은 기타 기능들도 포함하는 이동 전화와 같은 휴대용 통신 장치이다. 휴대용 다기능 장치의 예시적인 실시예들은, 제한없이, 캘리포니아 쿠퍼티노의 Apple, Inc.로부터의 iPhone? 및 iPod Touch? 장치를 포함한다.
이하의 논의에서, 디스플레이 및 터치 감지형 표면을 포함하는 컴퓨팅 장치가 설명된다. 그러나, 컴퓨팅 장치는 물리적 키보드, 마우스 및/또는 조이스틱과 같은 하나 이상의 다른 물리적 사용자 인터페이스 장치를 포함할 수 있음을 이해해야 한다.
장치는 드로잉 애플리케이션, 프레젠테이션 애플리케이션, 워드 프로세싱 애플리케이션, 웹사이트 생성 애플리케이션, 디스크 조작 애플리케이션, 스프레드시트 애플리케이션, 게임 애플리케이션, 전화 애플리케이션, 화상 회의 애플리케이션, 이메일 애플리케이션, 인스턴트 메시징 애플리케이션, 음성 메모 애플리케이션, 사진 관리 애플리케이션, 디지털 카메라 애플리케이션, 디지털 비디오 카메라 애플리케이션, 웹 브라우징 애플리케이션, 디지털 음악 재생기 애플리케이션 및/또는 디지털 비디오 재생기 애플리케이션 중 하나 이상과 같은 다양한 애플리케이션들을 지원한다.
장치 상에서 실행될 수 있는 다양한 애플리케이션들은 터치 감지형 표면과 같은 적어도 하나의 공통의 물리적 사용자 인터페이스 장치를 사용할 수 있다. 터치 감지형 표면의 하나 이상의 기능과 장치 상에 디스플레이되는 대응하는 정보는 애플리케이션마다 및/또는 각각의 애플리케이션 내에서 조절될 수 있고/거나 변경될 수 있다. 이러한 방식으로, 장치의 (터치 감지형 표면과 같은) 공통의 물리적 아키텍처가 직관적이고 투명한 사용자 인터페이스들로 다양한 애플리케이션들을 지원할 수 있다.
사용자 인터페이스들은 하나 이상의 소프트 키보드 구현을 포함할 수 있다. 소프트 키보드 구현은 표준(QWERTY) 구성, 및/또는 2006년 7월 24일에 출원된 미국 특허 출원 제11/459,606호 "Keyboards For Portable Electronic Devices" 및 2006년 7월 24일에 출원된 제11/459,615호 "Touch Screen Keyboards For Portable Electronic Devices"에 기술된 것들과 같은 키보드의 디스플레이된 아이콘들 상의 심볼들의 비표준 구성을 포함할 수 있으며, 이 출원들의 내용은 그 전체가 여기에 참조에 의해 포함된다. 키보드 구현들은 타자기를 위한 것과 같은 현존하는 물리적 키보드들 내의 키의 개수에 비해 감소된 개수의 아이콘(또는 소프트 키)을 포함할 수 있다. 이것은 사용자가 키보드 내에서 하나 이상의 아이콘, 그리고 따라서 하나 이상의 대응하는 심볼을 선택하는 것을 더 쉽게 할 수 있다. 키보드 구현들은 적응적일 수 있다. 예를 들어, 디스플레이된 아이콘들은 하나 이상의 아이콘 및/또는 하나 이상의 대응하는 심볼을 선택하는 것과 같은 사용자 액션에 따라 수정될 수 있다. 장치 상의 하나 이상의 애플리케이션은 공통의 및/또는 상이한 키보드 구현들을 이용할 수 있다. 따라서, 이용되는 키보드 구현은 애플리케이션들 중 적어도 일부에 맞춰질 수 있다. 일부 실시예들에서, 하나 이상의 키보드 구현은 개별 사용자에게 맞춰질 수 있다. 예를 들어, 하나 이상의 키보드 구현은 개별 사용자의 단어 사용 이력(사전편집(lexicography), 은어(slang), 개별 사용)에 기초하여 개별 사용자에게 맞춰질 수 있다. 키보드 구현들 중 일부는 소프트 키보드 구현들을 이용하는 경우, 하나 이상의 아이콘, 그리고 따라서 하나 이상의 심볼을 선택할 때의 사용자 에러의 확률을 감소시키도록 조절될 수 있다.
이제, 터치 감지 디스플레이를 구비하는 휴대용 장치들의 실시예들에 주목하기로 한다. 도 1a 및 도 1b는 일부 실시예들에 따른 터치 감지 디스플레이들(112)을 구비하는 휴대용 다기능 장치들(100)을 도시한 블록도들이다. 터치 감지 디스플레이(112)는 때로는 편의상 "터치 스크린"이라고 불리우며, 또한 터치 감지 디스플레이 시스템으로서 알려져 있거나 그와 같이 불리울 수 있다. 장치(100)는 메모리(102)(하나 이상의 컴퓨터 판독가능한 저장 매체를 포함할 수 있음), 메모리 제어기(122), 하나 이상의 처리 유닛(CPU)(120), 주변장치 인터페이스(118), RF 회로(108), 오디오 회로(110), 스피커(111), 마이크로폰(113), 입력/출력(I/O) 서브시스템(106), 다른 입력 또는 제어 장치들(116) 및 외부 포트(124)를 포함할 수 있다. 장치(100)는 하나 이상의 광학 센서(164)를 포함할 수 있다. 이러한 컴포넌트들은 하나 이상의 통신 버스 또는 신호선(103)을 통해 통신할 수 있다.
장치(100)는 휴대용 다기능 장치(100)의 일례일 뿐이며, 장치(100)는 도시된 것보다 더 많거나 더 적은 컴포넌트들을 가질 수 있거나, 둘 이상의 컴포넌트를 결합할 수 있거나, 컴포넌트들의 상이한 구성 또는 배열을 가질 수 있음을 알아야 한다. 도 1a 및 도 1b에 도시된 다양한 컴포넌트들은 하나 이상의 신호 처리 및/또는 애플리케이션 특정 집적 회로를 포함하여, 하드웨어, 소프트웨어, 또는 하드웨어 및 소프트웨어 둘 다의 조합으로 구현될 수 있다.
메모리(102)는 고속 랜덤 액세스 메모리를 포함할 수 있으며, 하나 이상의 자기 디스크 저장 장치, 플래시 메모리 장치들, 또는 기타 비휘발성 고상 메모리 장치들과 같은 비휘발성 메모리도 포함할 수 있다. CPU(120) 및 주변장치 인터페이스(118)와 같은 장치(100)의 다른 컴포넌트들에 의한 메모리(102)에의 액세스는 메모리 제어기(122)에 의해 제어될 수 있다.
주변장치 인터페이스(118)는 장치의 입력 및 출력 주변장치를 CPU(120) 및 메모리(102)에 연결한다. 하나 이상의 프로세서(120)는 장치(100)를 위해 다양한 기능들을 수행하고 데이터를 처리하기 위해 메모리(102) 내에 저장된 다양한 소프트웨어 프로그램들 및/또는 명령어들의 집합들을 실행 또는 수행한다.
일부 실시예들에서, 주변장치 인터페이스(118), CPU(120) 및 메모리 제어기(122)는 칩(104)과 같은 단일 칩 상에서 구현될 수 있다. 일부 다른 실시예들에서, 그들은 별개의 칩들 상에서 구현될 수 있다.
RF(radio frequency) 회로(108)은 전자기 신호라고도 칭해지는 RF 신호를 수신하고 송신한다. RF 회로(108)은 전기 신호와 전자기 신호를 상호변환하고, 전자기 신호를 통해 통신 네트워크 및 기타 통신 장치와 통신한다. RF 회로(108)은 안테나 시스템, RF 송수신기, 하나 이상의 증폭기, 튜너, 하나 이상의 발진기, 디지털 신호 프로세서, CODEC 칩셋, SIM(subscriber identity module) 카드, 메모리 등을 포함하지만 그에 제한되지는 않는, 이러한 기능들을 수행하기 위한 공지된 회로를 포함할 수 있다. RF 회로(108)은 WWW(World Wide Web)라고도 칭해지는 인터넷, 인트라넷, 및/또는 셀룰러 전화 네트워크, 무선 LAN(local area network) 및/또는 MAN(metropolitan area network)과 같은 무선 네트워크와 같은 네트워크, 및 다른 장치들과 무선 통신에 의해 통신할 수 있다. 무선 통신은 GSM(Global System for Mobile Communications), EDGE(Enhanced Data GSM Environment), HSDPA(high-speed downlink packet access), W-CDMA(wideband code division multiple access), CDMA(code division multiple access), TDMA(time division multiple access), 블루투스, Wi-Fi(Wireless Fidelity)(예를 들어, IEEE 802.11a, IEEE 802.11b, IEEE 802.11g 및/또는 IEEE 802.11n), VoIP(voice over Internet Protocol), Wi-MAX, 이메일을 위한 프로토콜(예를 들어, IMAP(Internet message access protocol) 및/또는 POP(post office protocol)), 인스턴트 메시징(예를 들어, XMPP(extensible messaging and presence protocol), SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions), IMPS(Instant Messaging and Presence Service) 및/또는 SMS(Short Message Service)), 또는 본 문서의 출원일 현재 아직 개발되지 않은 통신 프로토콜을 포함하는 임의의 다른 적합한 통신 프로토콜을 포함하지만 그에 제한되지는 않는 복수의 통신 표준, 프로토콜 및 기술 중 임의의 것을 이용할 수 있다.
오디오 회로(110), 스피커(111) 및 마이크로폰(113)은 사용자와 장치(100) 간의 오디오 인터페이스를 제공한다. 오디오 회로(110)은 주변장치 인터페이스(118)로부터 오디오 데이터를 수신하고, 오디오 데이터를 전기 신호로 변환하고, 전기 신호를 스피커(111)에 전송한다. 스피커(111)는 전기 신호를 사람이 들을 수 있는 음파로 변환한다. 오디오 회로(110)은 또한 마이크로폰(113)에 의해 음파로부터 변환된 전기 신호를 수신한다. 오디오 회로(110)은 전기 신호를 오디오 데이터로 변환하고, 오디오 데이터를 처리를 위하여 주변장치 인터페이스(118)에 전송한다. 오디오 데이터는 주변장치 인터페이스(118)에 의해 메모리(102) 및/또는 RF 회로(108)으로부터 검색되고/거나 그에 전송된다. 일부 실시예들에서, 오디오 회로(110)은 또한 헤드셋 잭(예를 들어, 도 2의 212)을 포함한다. 헤드셋 잭은 출력 전용 헤드폰, 또는 출력(예를 들어, 한쪽 또는 양쪽 귀를 위한 헤드폰) 및 입력(예를 들어, 마이크로폰) 둘 다를 갖는 헤드셋과 같은 분리가능한 오디오 입력/출력 주변장치들과 오디오 회로(110) 간의 인터페이스를 제공한다.
I/O 서브시스템(106)은 터치 스크린(112) 및 기타 입력/제어 장치들(116)과 같은 장치(100) 상의 입력/출력 주변장치들을 주변장치 인터페이스(118)에 연결한다. I/O 서브시스템(106)은 디스플레이 제어기(156), 및 기타 입력 또는 제어 장치들을 위한 하나 이상의 입력 제어기(160)를 포함할 수 있다. 하나 이상의 입력 제어기(160)는 다른 입력 또는 제어 장치들(116)로부터/로 전기 신호들을 수신/송신한다. 다른 입력/제어 장치들(116)은 물리적 버튼(예를 들어, 푸시 버튼, 로커 버튼(rocker buttons) 등), 다이얼, 슬라이더 스위치, 조이스틱, 클릭 휠 및 기타 등등을 포함할 수 있다. 일부 대안적인 실시예들에서, 입력 제어기(들)(160)는 키보드, 적외선 포트, USB 포트, 및 마우스와 같은 포인터 장치 중 임의의 것에 연결될 수 있다 (또는 어떤 것에도 연결되지 않을 수 있다). 하나 이상의 버튼(예를 들어, 도 2의 208)은 스피커(111) 및/또는 마이크로폰(113)의 음량 제어를 위한 업/다운 버튼을 포함할 수 있다. 하나 이상의 버튼은 푸시 버튼(예를 들어, 도 2의 206)을 포함할 수 있다. 푸시 버튼을 빠르게 누르는 것은 터치 스크린(112)의 잠금을 해제하거나, 또는 2005년 12월 23일에 출원된 미국 특허 출원 제11/322,549호 "Unlocking a Device by Performing Gestures on an Unlock Image"에 설명된 것과 같이, 장치를 잠금해제하기 위해 터치 스크린 상에서의 제스처들을 이용하는 프로세스를 시작할 수 있는데, 이 출원은 그 전체가 여기에 참조에 의해 포함된다. 푸시 버튼(예를 들어, 206)을 더 길게 누르는 것은 장치(100)의 전원을 온 또는 오프로 할 수 있다. 사용자는 버튼들 중 하나 이상의 기능성을 커스터마이즈할 수 있을 수 있다. 터치 스크린(112)은 가상 또는 소프트 버튼들 및 하나 이상의 소프트 키보드를 구현하기 위해 이용된다.
터치 감지 터치 스크린(112)은 장치와 사용자 간의 입력 인터페이스 및 출력 인터페이스를 제공한다. 디스플레이 제어기(156)는 터치 스크린(112)으로부터/으로 전기 신호들을 수신 및/또는 송신한다. 터치 스크린(112)은 사용자에게 시각적 출력을 디스플레이한다. 시각적 출력은 그래픽, 텍스트, 아이콘, 비디오 및 그들의 임의의 조합(총칭하여 "그래픽"이라고 함)을 포함할 수 있다. 일부 실시예들에서, 시각적 출력의 일부 또는 전부는 사용자 인터페이스 개체들에 대응할 수 있다.
터치 스크린(112)은 햅틱 및/또는 촉각 접촉에 기초하는 사용자로부터의 입력을 받아들이는 터치 감지형 표면, 센서들 또는 센서들의 집합을 갖는다. 터치 스크린(112) 및 디스플레이 제어기(156)는 (메모리(102) 내의 임의의 관련 모듈들 및/또는 명령어들의 집합과 함께) 터치 스크린(112) 상의 접촉(및 접촉의 임의의 이동 또는 단절)을 검출하고, 검출된 접촉을 터치 스크린 상에 디스플레이된 사용자 인터페이스 개체들(예를 들어, 하나 이상의 소프트 키, 아이콘, 웹 페이지 또는 이미지들)과의 상호작용으로 변환한다. 예시적인 실시예에서, 터치 스크린(112)과 사용자 간의 접촉의 점는 사용자의 손가락에 대응한다.
다른 실시예들에서는 다른 디스플레이 기술들이 이용될 수 있긴 하지만, 터치 스크린(112)은 LCD(liquid crystal display) 기술, 또는 LPD(light emitting polymer display) 기술을 이용할 수 있다. 터치 스크린(112) 및 디스플레이 제어기(156)는, 터치 스크린(112)과의 하나 이상의 접촉 점를 결정하기 위해, 정전용량식, 저항식, 적외선 및 표면 음향파 기술들과, 기타 근접 센서 어레이들 또는 기타 요소들을 포함하지만 그에 제한되지는 않는, 현재 알려져 있거나 추후에 개발될 복수의 터치 감지 기술 중 임의의 것을 이용하여, 접촉 및 그것의 임의의 이동 또는 단절을 검출할 수 있다. 예시적인 실시예에서, 캘리포니아 쿠퍼티노의 Apple Computer, Inc.로부터의 iPhone? 및 iPod Touch?에서 발견되는 것과 같은 투영 상호 정전용량식 감지 기술(projected mutual capacitance sensing technology)이 이용된다.
터치 스크린(112)의 일부 실시예들에서의 터치 감지 디스플레이는 미국 특허 제6,323,846호(Westerman 등), 제6,570,557호(Westerman 등) 및/또는 제6,677,932호(Westerman), 및/또는 미국 특허 공개 제2002/0015024A1호에 설명되어 있는 멀티터치 감지 태블릿과 유사할 수 있으며, 이 문헌들 각각은 그 전체가 여기에 참조에 의해 포함된다. 그러나, 터치 스크린(112)은 휴대용 장치(100)로부터의 시각적 출력을 디스플레이하는 반면, 터치 감지 태블릿들은 시각적 출력을 제공하지 않는다.
터치 스크린(112)의 일부 실시예들에서의 터치 감지 디스플레이는 (1) 2006년 5월 2일에 출원된 미국 특허 출원 제11/381,313호 "Multipoint Touch Surface Controller"; (2) 2004년 5월 6일에 출원된 미국 특허 출원 제10/840,862호 "Multipoint Touchscreen"; (3) 2004년 7월 30일에 출원된 미국 특허 출원 제10/903,964호 "Gestures For Touch Sensitive Input Devices"; (4) 2005년 1월 31일에 출원된 미국 특허 출원 제11/048,264호 "Gestures For Touch Sensitive Input Devices"; (5) 2005년 1월 18일에 출원된 미국 특허 출원 제11/038,590호 "Mode-Based Graphical User Interfaces For Touch Sensitive Input Devices"; (6) 2005년 9월 16일에 출원된 미국 특허 출원 제11/228,758호 "Virtual Input Device Placement On A Touch Screen User Interface"; (7) 2005년 9월 16일에 출원된 미국 특허 출원 제11/228,700호 "Operation Of A Computer With A Touch Screen Interface"; (8) 2005년 9월 16일에 출원된 미국 특허 출원 제11/228,737호 "Activating Virtual Keys Of A Touch-Screen Virtual Keyboard"; 및 (9) 2006년 3월 3일에 출원된 미국 특허 출원 제11/367,749호 "Multi-Functional Hand-Held Device"에 설명된 것과 같을 수 있다. 이 출원들 전부는 그 전체가 여기에 참조에 의해 포함된다.
터치 스크린(112)은 100dpi를 초과하는 해상도를 가질 수 있다. 예시적인 실시예에서, 터치 스크린은 약 160dpi의 해상도를 갖는다. 사용자는 스타일러스, 손가락 및 기타 등등과 같은 임의의 적합한 개체 또는 부속물을 이용하여 터치 스크린(112)과 접촉할 수 있다. 일부 실시예들에서, 사용자 인터페이스는 터치 스크린 상에서의 손가락의 넓은 접촉 면적으로 인해 스타일러스 기반 입력보다 훨씬 덜 정밀한 손가락 기반 접촉 및 제스처를 주로 이용하여 작업하도록 설계된다. 일부 실시예들에서, 장치는 대강의 손가락 기반 입력을 사용자가 원하는 액션들을 수행하기 위한 정밀한 포인터/커서 위치 또는 커맨드로 변환한다.
일부 실시예들에서, 터치 스크린에 더하여, 장치(100)는 특정 기능을 활성화 또는 비활성화하기 위한 터치패드(도시되지 않음)를 포함할 수 있다. 일부 실시예들에서, 터치패드는 터치 스크린과 달리, 시각적 출력을 디스플레이하지 않는 장치의 터치 감지 영역이다. 터치패드는 터치 스크린(112)으로부터 분리된 터치 감지형 표면일 수도 있고, 아니면 터치 스크린에 의해 형성된 터치 감지형 표면의 연장부일 수도 있다.
일부 실시예들에서, 장치(100)는 입력 제어 장치(116)로서 물리적 또는 가상 클릭 휠을 포함할 수 있다. 사용자는 클릭 휠을 회전시키거나 클릭 휠과의 접촉 점를 이동시킴으로써(예를 들어, 여기에서 접촉 점의 이동의 양은 클릭 휠의 중심 점에 대한 접촉 점의 각도 변위에 의해 측정됨), 터치 스크린(112) 내에 디스플레이된 하나 이상의 그래픽 개체(예를 들어, 아이콘들) 간을 네비게이트하거나 그와 상호작용할 수 있다. 클릭 휠은 또한 디스플레이된 아이콘 중 하나 이상을 선택하기 위해 이용될 수 있다. 예를 들어, 사용자는 클릭 휠의 적어도 일부분 또는 연관된 버튼을 누를 수 있다. 클릭 휠을 통해 사용자에 의해 제공되는 사용자 커맨드들 및 네비게이션 커맨드들은 입력 제어기(160)와, 메모리(102) 내의 모듈들 및/또는 명령어들의 집합들 중 하나 이상에 의해 처리될 수 있다. 가상 클릭 휠에 있어서, 클릭 휠 및 클릭 휠 제어기는 각각 터치 스크린(112) 및 디스플레이 제어기(156)의 일부분일 수 있다. 가상 클릭 휠에 있어서, 클릭 휠은 장치와의 사용자 상호작용에 응답하여 터치 스크린 디스플레이 상에 나타나거나 사라지는 불투명 또는 반투명 개체일 수 있다. 일부 실시예들에서, 가상 클릭 휠은 휴대용 다기능 장치의 터치 스크린 상에 디스플레이되고, 터치 스크린과의 사용자 접촉에 의해 조작된다.
장치(100)는 또한 다양한 컴포넌트들에 전력을 공급하기 위한 전력 시스템(162)을 포함한다. 전력 시스템(162)은 전력 관리 시스템, 하나 이상의 전원(예를 들어, 배터리, AC(alternating current)), 재충전 시스템, 전력 고장 검출 회로, 전력 변환기 또는 인버터, 전력 상태 표시기(예를 들어, LED(light-emitting diode)), 및 휴대용 장치들 내에서의 전력의 생성, 관리 및 분산에 연관된 임의의 다른 컴포넌트들을 포함할 수 있다.
장치(100)는 또한 하나 이상의 광학 센서(164)를 포함할 수 있다. 도 1a 및 도 1b는 I/O 서브시스템(106) 내의 광학 센서 제어기(158)에 연결된 광학 센서를 도시하고 있다. 광학 센서(164)는 CCD(charge-coupled device) 또는 CMOS(complementary metal-oxide semiconductor) 포토트랜지스터를 포함할 수 있다. 광학 센서(164)는 하나 이상의 렌즈를 통해 투영된 주변환경으로부터의 광을 수신하고, 그 광을 이미지를 나타내는 데이터로 변환한다. 광학 센서(164)는 이미징 모듈(143)(카메라 모듈이라고도 칭해짐)과 함께, 정지 이미지 또는 비디오를 캡처할 수 있다. 일부 실시예들에서, 터치 스크린 디스플레이가 정지 및/또는 비디오 이미지 획득을 위한 뷰파인더로서 이용될 수 있도록, 광학 센서는 장치 정면 상의 터치 스크린 디스플레이(112)에 반대되게, 장치(100)의 뒤에 위치된다. 일부 실시예들에서, 사용자의 이미지가 화상회의를 위해 획득될 수 있으면서, 사용자가 터치 스크린 디스플레이 상에서 다른 화상 회의 참가자들을 보도록, 광학 센서가 장치의 정면에 위치된다. 일부 실시예들에서, 단일의 광학 센서(164)가 화상회의, 및 정지 및/또는 비디오 이미지 획득 둘 다를 위해 터치 스크린 디스플레이와 함께 이용될 수 있도록, 광학 센서(164)의 위치는 사용자에 의해 (예를 들어, 장치 하우징 내의 렌즈 및 센서를 회전시킴으로써) 변경될 수 있다.
장치(100)는 또한 하나 이상의 근접 센서(166)를 포함할 수 있다. 도 1a 및 도 1b는 주변장치 인터페이스(118)에 연결된 근접 센서(166)를 도시하고 있다. 대안적으로, 근접 센서(166)는 I/O 서브시스템(106) 내의 입력 제어기(160)에 연결될 수 있다. 근접 센서(166)는 미국 특허 출원 제11/241,839호 "Proximity Detector In Handheld Device"; 제11/240,788호 "Proximity Detector In Handheld Device"; 제11/620,702호 "Using Ambient Light Sensor To Augment Proximity Sensor Output"; 제11/586,862호 "Automated Response To And Sensing Of User Activity In Portable Devices"; 및 제11/638,251호 "Methods And Systems For Automatic Configuration Of Peripherals"에 설명된 것과 같이 작동할 수 있으며, 이들은 그 전체가 참조에 의해 여기에 포함된다. 일부 실시예들에서, 근접 센서는 다기능 장치가 사용자의 귀 근처에 위치된 때(예를 들어, 사용자가 전화 통화를 하고 있을 때), 터치 스크린(112)을 턴오프하고 불능으로 한다. 일부 실시예들에서, 근접 센서는 장치가 잠금 상태일 때 불필요한 배터리 누출을 방지하기 위해, 장치가 사용자의 주머니, 지갑 또는 기타 어두운 영역에 있을 때 스크린을 오프로 유지한다.
장치(100)는 또한 하나 이상의 가속도계(168)를 포함할 수 있다. 도 1a 및 도 1b는 주변장치 인터페이스(118)에 연결된 가속도계(168)를 도시하고 있다. 대안적으로, 가속도계(168)는 I/O 서브시스템(106) 내의 입력 제어기(160)에 연결될 수 있다. 가속도계(168)는 미국 특허 공개 제20050190059호 "Acceleration-based Theft Detection System for Portable Electronic Devices" 및 미국 특허 공개 제20060017692호 "Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer"에 설명된 것과 같이 작동할 수 있으며, 이들은 둘 다 그 전체가 참조에 의해 여기에 포함된다. 일부 실시예들에서, 정보는 하나 이상의 가속도계로부터 수신된 데이터의 분석에 기초하여 터치 스크린 디스플레이 상에 세로보기 또는 가로보기로 디스플레이된다.
일부 실시예들에서, 메모리(102) 내에 저장된 소프트웨어 컴포넌트들은 운영 체제(126), 통신 모듈(또는 명령어들의 집합)(128), 접근성 모듈(129), 접촉/이동 모듈(또는 명령어들의 집합)(130), 그래픽 모듈(또는 명령어들의 집합)(132), 첨부 파일 편집 모듈(133), 텍스트 입력 모듈(또는 명령어들의 집합)(134), GPS(Global Positioning System) 모듈(또는 명령어들의 집합)(135), 및 애플리케이션들(또는 명령어들의 집합)(136)을 포함할 수 있다.
운영 체제(126)(예를 들어, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, 또는 VxWorks와 같은 내장된 운영 체제)는 일반적인 시스템 태스크들(예를 들어, 메모리 관리, 저장 장치 제어, 전력 관리 등)을 제어 및 관리하기 위한 다양한 소프트웨어 컴포넌트들 및/또는 드라이버들을 포함하고, 다양한 하드웨어 및 소프트웨어 컴포넌트들 간의 통신을 용이하게 한다.
통신 모듈(128)은 하나 이상의 외부 포트(124)를 통한 다른 장치들과의 통신을 용이하게 하고, RF 회로(108) 및/또는 외부 포트(124)에 의해 수신되는 데이터를 다루기 위한 다양한 소프트웨어 컴포넌트들도 포함한다. 외부 포트(124)(예를 들어, USB(Universal Serial Bus), FIREWIRE 등)는 다른 장치들에 직접 또는 네트워크(예를 들어, 인터넷, 무선 LAN 등)를 통해 간접적으로 연결하도록 적응된다. 일부 실시예들에서, 외부 포트는 iPod(Apple Computer, Inc.의 트레이드마크) 장치들에서 이용되는 30pin 커넥터와 동일 또는 유사하고/거나 호환가능한 멀티핀(예를 들어, 30pin) 커넥터이다.
오디오 회로(110), 스피커(111), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 접근성 모듈(129)은 사용자 인터페이스 요소들 간에서의 터치 기반 네비게이션을 용이하게 하여, 사용자가 사용자 인터페이스를 반드시 보지 않고서도 사용자 인터페이스 내의 요소들을 네비게이트하고, 선택하고, 활성화하고, 다르게 상호작용할 수 있게 한다. 일부 실시예들에서, 접근성 모듈(129)은 사용자 인터페이스 내의 사용자 인터페이스 요소들을 직접 선택하거나 접촉하지 않고서도 그러한 사용자 인터페이스 요소들을 선택하고 활성화하는 것을 용이하게 한다. 예시적인 사용자 인터페이스 요소들은 제한없이, 사용자 인터페이스 아이콘 및 위젯, 애플리케이션 아이콘, 애플리케이션 인터페이스, 메뉴, 웹 브라우저, 월드 와이드 웹으로부터의 웹 페이지 및 애플리케이션들, 애플리케이션 컨트롤들, 문서들, 소프트/가상 키보드 및 숫자 패드들, 계산기들, 캘린더들, 리스트들, 테이블들, 이메일들, HTML 텍스트, XML 텍스트, 리치 텍스트, 서식없는 텍스트, 맵들, 게임 인터페이스들 등을 포함한다. 사용자 인터페이스 요소들은, 사용자가 사용자 인터페이스가 실행되고 있는 전자 장치를 이용할 때 상호작용하거나 조작할 수 있는 그래픽 또는 텍스트 사용자 인터페이스의 임의의 양태를 포함한다.
접촉/이동 모듈(130)은 (디스플레이 제어기(156)와 함께) 터치 스크린(112), 및 다른 터치 감지 장치들(예를 들어, 터치패드 또는 물리적 클릭 휠)과의 접촉을 검출할 수 있다. 접촉/이동 모듈(130)은 접촉이 발생했는지를 결정하는 것(예를 들어, 손가락-다운 이벤트를 검출), 접촉의 이동이 있는지를 결정하고 터치 감지형 표면을 가로지르는 이동을 추적하는 것(예를 들어, 하나 이상의 손가락-드래그 이벤트를 검출), 및 접촉이 중단되었는지를 결정하는 것(예를 들어, 손가락-업 이벤트 또는 접촉 단절을 검출)과 같은, 접촉의 검출에 관련된 다양한 동작들을 수행하기 위한 다양한 소프트웨어 컴포넌트들을 포함한다. 접촉/이동 모듈(130)은 터치 감지형 표면으로부터 접촉 데이터를 수신한다. 일련의 접촉 데이터에 의해 표현되는 접촉 점의 이동을 결정하는 것은 접촉 점의 속력(크기), 속도(크기 및 방향) 및/또는 가속도(크기 및/또는 방향의 변화)를 결정하는 것을 포함할 수 있다. 이러한 동작들은 싱글 접촉들(예를 들어, 한 손가락 접촉들)에, 또는 복수의 동시적인 접촉들(예를 들어, "멀티터치"/복수의 손가락 접촉들)에 적용될 수 있다. 일부 실시예들에서, 접촉/이동 모듈(130) 및 디스플레이 제어기(156)는 터치패드 상의 접촉을 검출한다. 일부 실시예들에서, 접촉/이동 모듈(130) 및 제어기(160)는 클릭 휠 상의 접촉을 검출한다.
접촉/이동 모듈(130)은 사용자에 의한 제스처 입력을 검출할 수 있다. 터치 감지형 표면 상의 상이한 제스처들은 상이한 접촉 패턴들을 갖는다. 따라서, 제스처는 특정한 접촉 패턴을 검출함으로써 검출될 수 있다. 예를 들어, 손가락 탭 제스처를 검출하는 것은 손가락 다운 이벤트를 검출한 다음, 손가락 다운 이벤트와 동일한 위치(또는 실질적으로 동일한 위치)(예를 들어, 아이콘의 위치)에서 손가락 업 이벤트를 검출하는 것을 포함한다. 다른 예로서, 터치 감지형 표면 상에서 손가락 스와이프(swipe) 제스처를 검출하는 것은, 손가락 다운 이벤트를 검출한 다음, 하나 이상의 손가락 드래그 이벤트를 검출하고, 그에 후속하여 손가락 업 이벤트를 검출하는 것을 포함한다.
그래픽 모듈(132)은 디스플레이되는 그래픽의 강도를 변경하기 위한 컴포넌트들을 포함하여, 터치 스크린(112) 또는 기타 디스플레이 상에 그래픽을 렌더링 및 디스플레이하기 위한 다양한 알려진 소프트웨어 컴포넌트들을 포함한다. 여기에서 이용될 때, "그래픽"이라는 용어는, 제한없이, 텍스트, 웹 페이지들, 아이콘들(예를 들어, 소프트 키들을 포함하는 사용자 인터페이스 개체들), 디지털 이미지들, 비디오들, 애니메이션들 및 그와 유사한 것을 포함하여, 사용자에게 디스플레이될 수 있는 임의의 개체를 포함한다.
일부 실시예들에서, 그래픽 모듈(132)은 사용될 그래픽을 나타내는 데이터를 저장한다. 각각의 그래픽에는 대응하는 코드가 할당될 수 있다. 그래픽 모듈(132)은 애플리케이션 등으로부터, 디스플레이될 그래픽을 지정하는 하나 이상의 코드를, 필요한 경우 좌표 데이터 및 기타 그래픽 속성 데이터와 함께 수신한 다음, 디스플레이 제어기(156)에 출력할 스크린 이미지 데이터를 생성한다.
그래픽 모듈(132)의 컴포넌트일 수 있는 텍스트 입력 모듈(134)은 다양한 애플리케이션들(예를 들어, 연락처(137), 이메일(140), IM(141), 브라우저(147), 및 텍스트 입력을 필요로 하는 임의의 다른 애플리케이션)에 텍스트를 입력하기 위한 소프트 키보드들을 제공한다.
GPS 모듈(135)은 장치의 위치를 결정하고, 이 정보를 다양한 애플리케이션들에서의 사용을 위해 (예를 들어, 위치 기반 다이얼링에서의 사용을 위해 전화(138)에, 사진/비디오 메타데이터로서 카메라(143)에, 및 날씨 위젯, 지역 옐로 페이지 위젯 및 맵/네비게이션 위젯과 같은 위치 기반 서비스를 제공하는 애플리케이션들에) 제공한다.
애플리케이션들(136)은 이하의 모듈들(또는 명령어들의 집합), 또는 그들의 부분집합 또는 확대집합을 포함할 수 있다:
·연락처 모듈(137)(때로는, 주소록 또는 연락처 리스트라고 칭해짐);
·전화 모듈(138);
·화상 회의 모듈(139);
·이메일 클라이언트 모듈(140);
·인스턴트 메시징(IM) 모듈(141);
·음성 메모 모듈(142);
·정지 및/또는 비디오 이미지를 위한 카메라 모듈(143);
·이미지 관리 모듈(144);
·비디오 재생기 모듈(145);
·음악 재생기 모듈(146);
·브라우저 모듈(147);
·캘린더 모듈(148);
·날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4), 사전 위젯(149-5), 및 사용자에 의해 획득되는 기타 위젯들과, 사용자 생성 위젯들(149-6)을 포함할 수 있는 위젯 모듈(149);
·사용자 생성 위젯들(149-6)을 만들기 위한 위젯 생성기 모듈(150);
·검색 모듈(151);
·비디오 재생기 모듈(145) 및 음악 재생기 모듈(146)을 병합하는 비디오 및 음악 재생기 모듈(152);
·노트 모듈(153);
·지도 모듈(154); 및/또는
·온라인 비디오 모듈(155)
메모리(102) 내에 저장될 수 있는 기타 애플리케이션들(136)의 예시들은 기타 워드 프로세싱 애플리케이션들, 기타 이미지 편집 애플리케이션들, 드로잉 애플리케이션들, 프레젠테이션 애플리케이션들, JAVA-인에이블드 애플리케이션들, 암호화, 디지털 권한 관리, 음성 인식 및 음성 복제를 포함한다.
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 연락처 모듈(137)은 주소록에 이름(들)을 추가하는 것; 주소록으로부터 이름(들)을 삭제하는 것; 전화번호(들), 이메일 주소(들), 물리적 주소(들) 또는 기타 정보를 이름과 연관시키는 것; 이미지를 이름과 연관시키는 것; 이름들을 범주화하고 정렬하는 것; 전화(138), 화상 회의(139), 이메일(140) 또는 IM(141)에 의한 통신을 개시하고/거나 용이하게 하기 위해 전화번호들 또는 이메일 주소들을 제공하는 것; 및 기타 등등을 포함하여, 주소록 또는 연락처 리스트를 관리하기 위해 이용될 수 있다.
RF 회로(108), 오디오 회로(110), 스피커(111), 마이크로폰(113), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 전화 모듈(138)은 전화 번호에 대응하는 캐릭터들의 시퀀스를 입력하고, 주소록(137) 내의 하나 이상의 전화 번호에 액세스하고, 입력된 전화 번호를 수정하고, 개별 전화 번호를 다이얼링하고, 대화를 시행하고, 대화가 완료된 때 접속을 해제하거나 끊기 위해 이용될 수 있다. 위에서 언급된 바와 같이, 무선 통신은 복수의 통신 표준, 프로토콜 및 기술 중 임의의 것을 이용할 수 있다.
RF 회로(108), 오디오 회로(110), 스피커(111), 마이크로폰(113), 터치스크린(112), 디스플레이 제어기(156), 광학 센서(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 연락처 리스트(137) 및 전화 모듈(138)과 함께, 화상회의 모듈(139)은 사용자와 한명 이상의 다른 참가자 간의 화상 회의를 개시하고 시행하고 종료하기 위해 이용될 수 있다.
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 이메일 클라이언트 모듈(140)은 이메일을 생성하고, 보내고, 수신하고, 관리하기 위해 이용될 수 있다. 이미지 관리 모듈(144)과 함께, 이메일 모듈(140)은 카메라 모듈(143)로 촬영된 정지 또는 비디오 이미지들을 갖는 이메일을 작성하고 보내는 것을 매우 쉽게 한다.
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 인스턴트 메시징 모듈(141)은 인스턴트 메시지에 대응하는 캐릭터들의 시퀀스를 입력하고, 이전에 입력된 캐릭터들을 수정하고, (예를 들어, 전화 기반 인스턴트 메시지들을 위한 SMS(Short Message Service) 또는 MMS(Multimedia Message Service) 프로토콜을 이용하여, 또는 인터넷 기반 인스턴트 메시지를 위한 XMPP, SIMPLE 또는 IMPS를 이용하여) 개별 인스턴트 메시지를 전송하고, 인스턴트 메시지들을 수신하고, 수신된 인스턴트 메시지들을 보기 위해 이용될 수 있다. 일부 실시예들에서, 전송된 및/또는 수신된 인스턴트 메시지들은 그래픽, 사진, 오디오 파일, 비디오 파일 및/또는 MMS 및/또는 EMS(Enhanced Messaging Service)에서 지원되는 대로의 기타 첨부물을 포함할 수 있다. 여기에서 이용될 때, "인스턴트 메시징"은 전화 기반 메시지(예를 들어, SMS 또는 MMS를 이용하여 보내진 메시지) 및 인터넷 기반 메시지(예를 들어, XMPP, SIMPLE 또는 IMPS를 이용하여 보내진 메시지) 둘 다를 칭한다.
RF 회로(108), 터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140) 및 인스턴트 메시징 모듈(141)과 함께, 음성 메모 모듈(142)은 강의, 구술(dictation), 전화 통화, 대화, 공연 등의 오디오를 기록하고, 이메일 또는 인스턴트 메시지 내에 그 오디오를 보내기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 제어기(156), 광학 센서(들)(164), 광학 센서 제어기(158), 접촉 모듈(130), 그래픽 모듈(132) 및 이미지 관리 모듈(144)과 함께, 카메라 모듈(143)은 정지 이미지 또는 비디오(비디오 스트림을 포함)를 캡처하여 그들을 메모리(102) 내에 저장하거나, 정지 이미지 또는 비디오의 특성을 수정하거나, 메모리(102)로부터 정지 이미지 또는 비디오를 삭제하기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 카메라 모듈(143)과 함께, 이미지 관리 모듈(144)은 정지 및/또는 비디오 이미지들을 정리하고, 수정(예를 들어, 편집)하거나 다르게 조작하고, 레이블링하고, 삭제하고, (예를 들어, 디지털 슬라이드 쇼 또는 앨범 내에서) 표시하고, 저장하기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110) 및 스피커(111)와 함께, 비디오 재생기 모듈(145)은 (예를 들어, 터치 스크린 상에, 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에) 비디오를 디스플레이, 표시 또는 다르게 재생하기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108) 및 브라우저 모듈(147)과 함께, 음악 재생기 모듈(146)은 사용자가 MP3 또는 AAC 파일과 같은 하나 이상의 파일 포맷으로 저장된 기록된 음악 또는 기타 사운드 파일을 다운로드하고 재생하는 것을 허용한다. 일부 실시예들에서, 장치(100)는 iPod(Apple Computer, Inc.의 트레이드마크)와 같은 MP3 재생기의 기능성을 포함할 수 있다.
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 브라우저 모듈(147)은 웹 페이지들 또는 그들의 일부분과, 웹 페이지들에 링크된 첨부물 및 기타 파일들을 검색하고, 그에 링크하고, 수신하고, 디스플레이하는 것을 포함하여, 인터넷을 브라우징하기 위해 이용될 수 있다.
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), 이메일 모듈(140) 및 브라우저 모듈(147)과 함께, 캘린더 모듈(148)은 캘린더 및 캘린더에 관련된 데이터(예를 들어, 캘린더 엔트리, 할 일 목록 등)를 생성하고, 디스플레이하고, 수정하고, 저장하기 위해 이용될 수 있다.
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 모듈들(149)은 사용자에 의해 다운로드되고 사용될 수 있거나(예를 들어, 날씨 위젯(149-1), 주식 위젯(149-2), 계산기 위젯(149-3), 알람 시계 위젯(149-4) 및 사전 위젯(149-5)), 또는 사용자에 의해 생성되는(예를 들어, 사용자 생성 위젯(149-6)) 미니 애플리케이션들이다. 일부 실시예들에서, 위젯은 HTML(Hypertext Markup Language) 파일, CSS(Cascading Style Sheets) 파일 및 JavaScript 파일을 포함한다. 일부 실시예들에서, 위젯은 XML(Extensible Markup Language) 파일 및 JavaScript 파일(예를 들어, Yahoo! 위젯들)을 포함한다.
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134) 및 브라우저 모듈(147)과 함께, 위젯 생성기 모듈(150)은 위젯들을 생성(예를 들어, 웹 페이지의 사용자 지정된 부분을 위젯으로 변경)하기 위해 사용자에 의해 이용될 수 있다.
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 검색 모듈(151)은 하나 이상의 검색 기준(예를 들어, 하나 이상의 사용자 지정된 검색어)에 일치하는 메모리(102) 내의 텍스트, 음악, 사운드, 이미지, 비디오 및/또는 기타 파일을 검색하기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 제어기(156), 접촉 모듈(130), 그래픽 모듈(132) 및 텍스트 입력 모듈(134)과 함께, 노트 모듈(153)은 노트, 할 일 목록 및 그와 유사한 것을 생성하고 관리하기 위해 이용될 수 있다.
RF 회로(108), 터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 텍스트 입력 모듈(134), GPS 모듈(135) 및 브라우저 모듈(147)과 함께, 지도 모듈(154)은 지도 및 지도에 관련된 데이터(예를 들어, 운전 방향; 특정 위치 또는 그 부근의 상점 및 기타 관심 지점에 관한 데이터; 및 기타 위치 기반 데이터)를 수신하고, 디스플레이하고, 수정하고, 저장하기 위해 이용될 수 있다.
터치 스크린(112), 디스플레이 시스템 제어기(156), 접촉 모듈(130), 그래픽 모듈(132), 오디오 회로(110), 스피커(111), RF 회로(108), 텍스트 입력 모듈(134), 이메일 클라이언트 모듈(140) 및 브라우저 모듈(147)과 함께, 온라인 비디오 모듈(155)은, 사용자가 H.264와 같은 하나 이상의 파일 포맷으로 된 온라인 비디오들을 액세스하고, 브라우징하고, (예를 들어, 스트리밍 및/또는 다운로드에 의해) 수신하고, (예를 들어, 터치스크린 상에서, 또는 외부 포트(124)를 통해 외부의 접속된 디스플레이 상에서) 재생하고, 특정 온라인 비디오로의 링크와 함께 이메일을 보내고, 다르게 관리하는 것을 허용한다. 일부 실시예들에서는, 특정 온라인 비디오로의 링크를 보내기 위해, 이메일 클라이언트 모듈(140)보다는 인스턴트 메시징 모듈(141)이 이용된다. 온라인 비디오 애플리케이션의 추가의 설명은 2007년 6월 20일에 출원된 미국 특허 가출원 제60/936,562호 "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos", 및 2007년 12월 31일에 출원된 미국 특허 출원 제11/968,067호 "Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos"에서 찾을 수 있으며, 그것의 내용은 그 전체가 참조에 의해 여기에 포함된다.
위에서 식별된 모듈들 및 애플리케이션들 각각은 위에서 설명된 하나 이상의 기능 및 본 출원에서 설명되는 방법들(예를 들어, 여기에 설명되는 컴퓨터 구현된 방법 및 기타 정보 처리 방법들)을 수행하기 위한 실행가능한 명령어들의 집합에 대응한다. 이러한 모듈들(즉, 명령어들의 집합)은 별도의 소프트웨어 프로그램들, 프로시저들 또는 모듈들로서 구현될 필요가 없으며, 따라서 다양한 실시예들에서, 이러한 모듈들의 다양한 부분집합들이 결합되거나 다르게 재배열될 수 있다. 예를 들어, 비디오 재생기 모듈(145)은 음악 재생기 모듈(146)과 결합되어 단일의 모듈(예를 들어, 도 1b의 비디오 및 음악 재생기 모듈(152))로 될 수 있다. 일부 실시예들에서, 메모리(102)는 위에서 식별된 모듈들 및 데이터 구조들의 부분집합을 저장할 수 있다. 또한, 메모리(102)는 위에서 설명되지 않은 추가의 모듈들 및 데이터 구조들을 저장할 수 있다.
일부 실시예들에서, 장치(100)는 장치 상의 미리 정의된 기능 집합의 동작이 터치 스크린(112) 및/또는 터치패드를 통해 독점적으로 수행되는 장치이다. 터치 스크린 및/또는 터치패드를 장치(100)의 동작을 위한 주요 입력/제어 장치로서 이용함으로써, 장치(100) 상의 물리적 입력/제어 장치들(예를 들어, 푸시 버튼, 다이얼 및 그와 유사한 것)의 개수가 감소될 수 있다.
터치 스크린 및/또는 터치패드를 통해 독점적으로 수행될 수 있는 미리 정의된 기능 집합은 사용자 인터페이스들 간의 네비게이션을 포함한다. 일부 실시예들에서, 터치패드는 사용자에 의해 터치될 때, 장치(100) 상에 디스플레이될 수 있는 임의의 사용자 인터페이스로부터 메인, 홈 또는 루트 메뉴로 가도록 장치(100)를 네비게이트한다. 그러한 실시예들에서, 터치패드는 "메뉴 버튼"이라고 칭해질 수 있다. 일부 다른 실시예들에서, 메뉴 버튼은 터치패드 대신에, 물리적 푸시 버튼 또는 다른 물리적 입력/제어 장치일 수 있다.
도 2는 일부 실시예들에 따른 터치 스크린(112)을 갖는 휴대용 다기능 장치(100)를 도시하고 있다. 터치 스크린은 사용자 인터페이스(UI)(200) 내에 하나 이상의 그래픽을 디스플레이할 수 있다. 본 실시예와, 이하에 설명되는 다른 실시예들에서, 사용자는 예를 들어 하나 이상의 손가락(202)(도면에서는 비례에 맞춰서 그려지지 않음)으로 그래픽을 접촉하거나 터치함으로써 그래픽들 중 하나 이상을 선택할 수 있다. 일부 실시예들에서, 사용자가 하나 이상의 그래픽과의 접촉을 중단할 때 하나 이상의 그래픽의 선택이 발생한다. 일부 실시예들에서, 접촉은 장치(100)와 접촉한 손가락의 하나 이상의 탭(tap), 하나 이상의 스와이프(왼쪽으로부터 오른쪽으로, 오른쪽으로부터 왼쪽으로, 위로 및/또는 아래로) 및/또는 롤링(rolling)(오른쪽으로부터 왼쪽으로, 왼쪽으로부터 오른쪽으로, 위로 및/또는 아래로)과 같은 제스처를 포함할 수 있다. 일부 실시예들에서, 그래픽과의 의도적이지 않은 접촉은 그래픽을 선택하지 않을 수 있다. 예를 들어, 선택에 대응하는 제스처가 탭일 때, 애플리케이션 아이콘 위를 휩쓸고 지나가는 스와이프 제스처는 대응하는 애플리케이션을 선택하지 않을 수 있다.
장치(100)는 또한 "홈" 또는 메뉴 버튼(204)과 같은 하나 이상의 물리적 버튼을 포함할 수 있다. 앞에서 설명된 바와 같이, 메뉴 버튼(204)은 장치(100) 상에서 실행될 수 있는 애플리케이션들의 집합 내에서 임의의 애플리케이션(136)으로 네비게이트하기 위해 이용될 수 있다. 대안적으로, 일부 실시예들에서, 메뉴 버튼은 터치 스크린(112) 내에서 GUI 내의 소프트 키로서 구현된다.
일 실시예에서, 장치(100)는 터치 스크린(112), 메뉴 버튼(204), 장치의 전원을 온/오프하고 장치를 잠그기 위한 푸시 버튼(206), 음량 조절 버튼(들)(208), SIM(Subscriber Identity Module) 카드 슬롯(210), 헤드셋 잭(212), 및 도킹/충전 외부 포트(124)를 포함한다. 푸시 버튼(206)은 버튼을 누르고 미리 정의된 시간 간격 동안 버튼을 눌려진 상태로 유지함으로써 장치 상의 전원을 온/오프하고; 버튼을 누르고 미리 정의된 시간 간격이 경과하기 전에 버튼을 해제함으로써 장치를 잠그고; 및/또는 장치를 잠금해제하거나 잠금해제 프로세스를 개시하기 위해 이용될 수 있다. 대안적인 실시예에서, 장치(100)는 또한 마이크로폰(113)을 통한 일부 기능의 활성화 또는 비활성화를 위한 음성 입력(verbal input)을 받아들일 수 있다.
도 3은 일부 실시예들에 따른 디스플레이 및 터치 감지형 표면을 갖는 예시적인 컴퓨팅 장치의 블록도이다. 장치(300)는 휴대용일 필요는 없다. 일부 실시예들에서, 장치(300)는 랩탑 컴퓨터, 데스크탑 컴퓨터, 테이블 컴퓨터, 멀티미디어 재생기 장치, 네비게이션 장치, (어린이들의 학습용 장난감과 같은) 교육용 장치, 게이밍 시스템, 또는 제어 장치(예를 들어, 가정용 또는 산업용 제어기)이다. 장치(300)는 통상적으로 하나 이상의 프로세싱 유닛(CPU)(310), 하나 이상의 네트워크 또는 다른 통신 인터페이스(360), 메모리(370) 및 이들 컴포넌트들을 상호접속하기 위한 하나 이상의 통신 버스(320)를 포함한다. 통신 버스(320)는 시스템 컴포넌트들 사이의 통신들을 상호접속하고 제어하는 회로(때로는 칩셋으로도 불림)를 포함할 수 있다. 장치(300)는 디스플레이(340)를 포함하는 입/출력(I/O) 인터페이스(330)를 포함하며, 일부 실시예들에서는 디스플레이(340)가 터치 스크린 디스플레이(112)이다. I/O 인터페이스(330)는 또한 키보드 및/또는 마우스(또는 다른 포인팅 장치)(350) 및 터치패드(355)를 포함할 수 있다. 메모리(370)는 DRAM, SRAM, DDR RAM 등의 고속의 랜덤 액세스 메모리 또는 다른 랜덤 액세스 고상(solid state) 메모리 장치들을 포함하고, 하나 이상의 자기 디스크 저장 장치, 광 디스크 저장 장치, 플래시 메모리 장치 또는 다른 비휘발성 고상 저장 장치와 같은 비휘발성 메모리를 포함할 수 있다. 메모리(370)는 CPU(들)(310)로부터 원격에 배치된 하나 이상의 저장 장치를 선택적으로 포함할 수 있다. 일부 실시예들에서, 메모리(370)는 휴대용 다기능 장치(100)(도 1)의 메모리(102)에 저장된 데이터 구조들, 모듈들 및 프로그램들과 유사한 데이터 구조들, 모듈들, 프로그램들 또는 그 하위집합을 저장한다. 또한, 메모리(370)는 휴대용 다기능 장치(100)의 메모리(102)에 존재하지 않는 추가적인 프로그램들, 모듈들 및 데이터 구조들을 저장할 수 있다. 예를 들어, 장치(300)의 메모리(370)는 드로잉 모듈(380), 프리젠테이션 모듈(382), 워드 프로세싱 모듈(384), 웹사이트 생성 모듈(386), 디스크 저작 모듈(388), 스프레드시트 모듈(390) 및/또는 첨부 파일 편집 모듈(133)을 저장할 수 있지만, 휴대용 다기능 장치(100)(도 1)의 메모리(102)는 이들 모듈들을 저장하지 않을 수 있다.
위에서 식별된 도 3의 요소들 각각은 이전에 언급된 메모리 장치들 중 하나 이상의 메모리 장치에 저장될 수 있다. 위에서 식별된 모듈들 각각은 위에서 기술된 기능을 수행하기 위한 명령어들의 집합에 대응한다. 위에서 식별된 모듈들 또는 프로그램들(즉, 명령어들의 집합들)은 별개의 소프트웨어 프로그램들, 프로시저들 또는 모듈들로서 구현될 필요가 없으며, 따라서 이들 모듈들의 다양한 하위집합들은 다양한 실시예들에서 조합되거나 그렇지 않으면 재구성될 수 있다. 일부 실시예들에서, 메모리(370)는 위에서 식별된 모듈들 및 데이터 구조들의 하위집합을 저장할 수 있다. 또한, 메모리(370)는 위에서 기술되지 않은 추가적인 모듈들 및 데이터 구조들을 저장할 수 있다.
이제 휴대용 다기능 장치(100) 상에서 구현될 수 있는 사용자 인터페이스들("UI")의 실시예들을 향해 관심을 옮기도록 한다.
도 4a 및 도 4b는 일부 실시예들에 따른 휴대용 다기능 장치(100) 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스들을 도시한다. 유사한 사용자 인터페이스들은 장치(300) 상에서 구현될 수 있다. 일부 실시예들에서, 사용자 인터페이스(400A)는 다음의 요소들 또는 그 하위집합 또는 상위집합을 포함한다:
● 셀룰러 및 Wi-Fi 신호들과 같은 무선 통신(들)에 대한 신호 강도 표시자(들)(402);
● 시각(404);
● 블루투스 표시자(405);
● 배터리 상태 표시자(406);
● 다음과 같이 자주 사용되는 애플리케이션들에 대한 아이콘들을 갖는 트레이(408):
○ 부재중 통화들 또는 음성사서함 메시지들의 수의 표시자(414)를 포함할 수 있는 전화(138);
○ 읽지않은 이메일들의 수의 표시자(410)를 포함할 수 있는 이메일 클라이언트(140);
○ 브라우저(147); 및
○ 음악 재생기(146); 및
● 다음과 같은 다른 애플리케이션들에 대한 아이콘들:
○ IM(141);
○ 이미지 관리(144);
○ 카메라(143);
○ 비디오 재생기(145);
○ 날씨(149-1);
○ 주식(149-2);
○ 음성 메모(142);
○ 캘린더(148);
○ 계산기(149-3);
○ 알람 시계(149-4);
○ 사전(149-5); 및
○ 사용자 생성 위젯(149-6).
일부 실시예들에서, 사용자 인터페이스(400B)는 다음의 요소들, 또는 그 하위집합 또는 상위집합을 포함한다:
● 위에서 기술된 바와 같은 참조부호 402, 404, 405, 406, 141, 148, 144, 143, 149-3, 149-2, 149-1, 149-4, 410, 414, 138, 140, 및 147;
● 지도(154);
● 노트들(153);
● 이하에서 더욱 기술되는 바와 같은, 장치(100) 및 그 다양한 애플리케이션들(136)에 대한 설정들에 대한 액세스를 제공하는 설정들(412);
● iPod(애플 컴퓨터사(Apple Computer, Inc.)의 트레이드마크) 모듈(152)로도 참조되는 비디오 및 음악 재생기 모듈(152); 및
● 유튜브(구글사(Google, Inc.)의 트레이드마크) 모듈(155)로도 참조되는 온라인 비디오 모듈(155).
도 4c는 일부 실시예들에 따라 휴대용 전자 장치를 잠금해제하기 위한 예시적인 사용자 인터페이스를 도시한다. 일부 실시예들에서, 사용자 인터페이스(400C)는 다음의 요소들, 또는 그 하위집합 또는 상위집합을 포함한다:
● 장치를 잠금해제하기 위하여 손가락 제스처에 의해 이동되는 잠금해제 이미지(450);
● 제스처를 잠금해제하기 위하여 시각 큐(visual cue)를 제공하는 화살표(455);
● 제스처를 잠금해제하기 위하여 추가적인 큐(cue)들을 제공하는 채널(460);
● 시각(465);
● 요일(day)(466);
● 날짜(date)(467); 및
● 배경화면(wallpaper) 이미지(470).
일부 실시예들에서, 장치가 사용자 인터페이스 잠금 상태에 있는 동안 장치는 터치 감지 디스플레이와의 접촉(예를 들어, 사용자의 손가락이 잠금해제 이미지(450) 상에서 또는 그 근처에서 접촉을 행하는 것)을 검출한다. 장치는 접촉에 따라 잠금해제 이미지(450)를 이동시킨다. 검출된 접촉이 채널(460)을 가로질러 잠금해제 이미지를 이동시키는 것과 같은 미리 정의된 제스처에 대응하는 경우, 장치는 사용자 인터페이스 잠금해제 상태로 천이(transition)된다. 반대로, 검출된 접촉이 미리 정의된 제스처에 대응하지 않는 경우, 장치는 사용자 인터페이스 잠금 상태를 유지한다. 위에서 언급된 바와 같이, 장치를 잠금해제하기 위하여 터치 스크린 상에서의 제스처들을 사용하는 프로세스들은 2005년 12월 23일에 출원된 U.S. 특허 출원 제11/322,549호(발명의 명칭이 "잠금해제 이미지 상에서 제스처들을 수행하는 것에 의한 장치 잠금해제(Unlocking A Device By Performing Gestures On An Unlock Image)"임), 및 2005년 12월 23일에 출원된 U.S. 특허 출원 제11/322,550호(발명의 명칭이 "사용자 입력 조건의 만족을 향한 진행률의 표시(Indication Of Progress Towards Satisfaction Of A User Input Condition)"임)에 개시되어 있으며, 이들 출원은 본원에서 전체적으로 참조로 포함된다.
이제 장치(300) 또는 휴대용 다기능 장치(100)와 같이 디스플레이 및 터치 감지형 표면을 갖는 컴퓨팅 장치 상에서 구현될 수 있는 사용자 인터페이스("UI")들 및 연관된 프로세스들의 예시적인 실시예들을 향해 관심을 옮기도록 한다.
도 5a 내지 도 5nn은 일부 실시예들에 따른 터치 감지형 표면을 갖는 전자 장치에 대한 접근성 사용자 인터페이스들을 도시한다. 이들 도면들에서, 사용자 인터페이스들 상에 도시된 제스처들(예를 들어, UI(500A), UI(500K), UI(500P) 및 UI(500U)에 도시된 제스처들)은 터치 스크린 디스플레이, 트랙 패드 또는 다른 터치 감지형 표면 상에서 사용자에 의해 수행될 수 있다. 예시적인 제스처들이 도면들에서 사용자 인터페이스들 상에 도시되어 있는 것은 제스처들이 여기서 개시되는 방법들을 실행하기 위하여 터치 스크린 디스플레이 상에서 수행되어야 할 것을 요구하지 않는다. 예를 들어, 일부 실시예들에서, 제스처들은 대신에 트랙 패드 상에서 수행될 수 있다. 이들 도면들에서의 접근성 사용자 인터페이스들은 본원 명세서에서 나중에 기술되는 프로세스들을 예시하기 위하여 사용된다.
가청
네비게이션
도 5a-5nn 및 도 6a-6t에 도시된 예시적인 사용자 인터페이스들은 전자 장치 상의 사용자 인터페이스 요소들 간의 터치 기반 네비게이션을 위한 접근성 인터페이스들에 대한 것이다. 도 5a-5nn 및 도 6a-6t에 도시된 예시적인 사용자 인터페이스들은 시각적으로 도시되지는 않는 "현재 포커스"를 포함한다. 이들 예시적인 사용자 인터페이스들 중 다수는 또한 시각적으로 디스플레이된 "접근성 커서"를 포함한다. 접근성 커서는 현재 포커스가 있는 곳을 나타낸다. 현재 포커스는 특정 사용자 인터페이스 요소와 연관되며, 특정 사용자 인터페이스 요소는, 선택된 경우, 장치로 하여금 그 특정 사용자 인터페이스 요소와 연관된 액션을 실행하게 한다. 예를 들어, UI(500A)(도 5a)에서, 디스플레이된 접근성 커서(502) 및 현재 포커스는 텍스팅 아이콘(141) 상에 또는 텍스팅 아이콘(141)에 있으며, 따라서 그 아이콘이 선택된 경우, 사용자 인터페이스를 실행하는 장치는 아이콘(141)과 연관된 인스턴트 메시징 애플리케이션을 실행할 것이다.
일부 실시예들에서는 접근성 커서가 사용자 인터페이스에서 시각적으로 디스플레이되지만, 다른 실시예들에서는 접근성 커서가 시각적으로 디스플레이되지 않는다. 사실상, 일부 실시예들에서는, 사용자 인터페이스가 시각적으로 디스플레이될 필요가 전혀 없다. 이들 실시예들에서, 장치에 통신가능하게 부착되거나 또는 장치 내에 배치될 수 있는 가청 및/또는 촉각 피드백(예를 들어, Braille 키보드들)이 사용자에게 제공되어, 사용자가 본원 명세서에 개시된 방법들에 따라 디스플레이되지 않은 사용자 인터페이스 요소들 간에 터치 기반 네비게이션을 수행할 수 있게 된다. 그러나, 도 5a-5nn의 예시적인 사용자 인터페이스들에서, 현재 포커스는 (접근성 커서가 디스플레이될 때) 접근성 커서(502)가 위치하는 동일한 사용자 인터페이스 요소에 또는 동일한 사용자 인터페이스 요소 상에 있다.
또한, 일부 실시예들에서, 표 1에 포함된 예시적인 제스처들 중 일부 또는 전부가 본원 명세서에서 제시된 접근성 인터페이스들에서 사용될 수 있다. 표 1에서, "터치 감지형 표면" 상의 제스처는 터치 스크린 디스플레이, 트랙 패드, 또는 다른 터치 감지형 표면 상에서 수행되는 제스처들을 지칭한다.
네비게이션 및 판독 | |
검출된 제스처 | 검출된 제스처에 대한 응답 |
한 손가락이 터치 감지형 표면 상에서 탭핑한다. | 현재 포커스가 설정된 사용자 인터페이스 요소 또는 항목의 이름을 말한다. |
한 손가락이 터치 감지형 표면 상의 오른쪽에서 플릭(flick)한다. | 현재 포커스를 다음 사용자 인터페이스 요소로 이동시킨다. |
한 손가락이 터치 감지형 표면 상의 왼쪽에서 플릭한다. | 현재 포커스를 이전 사용자 인터페이스 요소로 이동시킨다. |
한 손가락이 터치 감지형 표면 상의 아래에서 플릭한다. | 현재 포커스가 설정된 사용자 인터페이스 요소에 관한 가청 표시를 출력하고, 하나의 네비게이션가능 유닛 만큼 현재 포커스를 어드밴스(advance)시킨다. 예를 들어, 요소의 이름을 판독하고 현재 포커스를 다음 요소로 어드밴스시키거나, 단어를 말하고 현재 포커스를 다음 단어로 어드밴스시키거나, 요소의 개별적인 문자를 말하고 현재 포커스를 요소의 다음 문자로 어드밴스시킨다. |
한 손가락이 터치 감지형 표면 상의 위에서 플릭한다. | 현재 포커스가 설정된 사용자 인터페이스 요소에 관한 가청 표시를 출력하고, 하나의 네비게이션가능 유닛 만큼 현재 포커스를 후방으로 이동시킨다. 예를 들어, 요소의 이름을 판독하고 현재 포커스를 이전 요소로 이동시키거나, 단어를 말하고 현재 포커스를 이전 단어로 이동시키거나, 요소의 개별적인 문자를 말하고 현재 포커스를 요소의 이전 문자로 이동시킨다. |
2개의 손가락이 터치 감지형 표면 상에서 한번 탭핑한다. | 현재 접근성 정보의 출력을 토글(toggle)한다. 예를 들어, 가청 접근성 정보를 일시 중지하는 것과 재생하는 것 사이에서 토글한다. |
2개의 손가락이 터치 감지형 표면 상에서 상방으로 플릭한다. 즉, 두개의 손가락이 터치 감지형 표면의 상부를 향해 플릭한다. | 디스플레이의 상부로부터 모든 디스플레이된 정보(예를 들어, 사용자 인터페이스 요소들의 텍스트 및/또는 이름들)를 판독한다. |
2개의 손가락이 터치 감지형 표면 상에서 하방으로 플릭한다. 즉, 두개의 손가락이 터치 감지형 표면의 하부를 향해 플릭한다. | 디스플레이 상의 현재 포커스의 위치로부터 모든 디스플레이된 정보(예를 들어, 사용자 인터페이스 요소들의 텍스트 및/또는 이름들)를 판독한다. |
3개의 손가락이 터치 감지형 표면 상에서 상방으로 플릭한다. 즉, 3개의 손가락이 터치 감지형 표면의 상부를 향해 플릭한다. | 자료(material)의 하나의 페이지/스크린을 전방으로/상방으로 스크롤한다. 예를 들어, 문서 또는 리스트가 디스플레이 상에서 위로 슬라이딩되고, 자료의 다음 페이지/스크린을 나타낸다. |
3개의 손가락이 터치 감지형 표면 상에서 하방으로 플릭한다. 즉, 3개의 손가락이 터치 감지형 표면의 하부를 향해 플릭한다. | 자료의 하나의 페이지/스크린을 후방/하방으로 스크롤한다. 예를 들어, 문서 또는 리스트가 디스플레이 상에서 아래로 슬라이딩되고, 자료의 이전 페이지/스크린을 나타낸다. |
3개의 손가락이 터치 감지형 표면 상의 오른쪽에서 플릭한다. | 사용자 인터페이스 요소들의 이전 페이지/스크린을 디스플레이한다. |
3개의 손가락이 터치 감지형 표면 상의 왼쪽에서 플릭한다. | 사용자 인터페이스 요소들의 다음 페이지/스크린을 디스플레이한다. |
3개의 손가락이 터치 감지형 표면 상에서 한번 탭핑한다. | 문서의 현재 디스플레이된 섹션에 대응하는 가청 문서 섹션 표시, 예를 들어, "22 페이지 중 2 페이지(page 2 of 22)"와 같은 디스플레이된 문서 섹션에 대응하는 음성 단어들을 출력한다. |
3개의 손가락이 터치 감지형 표면 상에서 두번 탭핑한다. | 가청 출력을 제공하는 것과 가청 출력을 음소거(muting)하는 것 사이에서 토글한다. |
선택 및 활성화 | |
검출된 제스처 | 검출된 제스처에 대한 응답 |
한 손가락이 터치 감지형 표면 상에서 두번 탭핑한다. | 현재 포커스를 갖는 사용자 인터페이스 요소와 연관된 액션(예를 들어, 텍스트 입력을 위한 키보드 상에서 키를 선택하는 것, 선택된 항목을 활성화하는 것, 애플리케이션을 실행하는 것 등)을 수행한다. |
분할하여 탭핑한다(split tapping). 즉, 한 손가락을 이용하여 항목(또는 항목에 대응하는 점)을 터치하는 동안, 다른 손가락을 이용하여 터치 감지형 표면을 탭핑한다. | (터치의 결과로서 현재 포커스를 갖는) 터치된 항목과 연관된 액션을 수행한다. |
한 손가락이 두번 탭핑하는데, 두번째 탭은 미리 정의된 기간 동안, 예를 들어 0.05초와 1.5초 사이의 기간 동안 터치 감지형 표면과의 접촉을 유지한다. | 표준의 비접근성 사용자 인터페이스에 대해 제스처들의 통과(pass-through)를 가능하게 한다. 일부 실시예들에서, 특수 문자들의 그룹으로부터 특수 문자를 선택한다. 예를 들어, 스페인어 와 같은 악센트 부호 문자들을 선택한다. |
2개의 손가락이 터치 감지형 표면 상에서 두번 탭핑한다. | 실행되는 애플리케이션(들)에 따라: 전화 통화에 응답하거나 전화 통화를 종료한다. 미디어 콘텐츠 재생을 재생하거나 일시중지한다. 카메라를 이용하여 사진을 찍는다. 비디오 카메라 또는 오디오 레코딩 툴과 같은 애플리케이션에 의한 레코딩을 시작하거나 일시중지한다. 완료 후보자들, 예를 들어, 타이핑을 할 때 제시되는 완료 후보자 단어들, 또는 간지 문자(Kanji)와 같은 아시아 언어 문자들을 선택하기 위한 완료 후보자들을 수락하고 거절하는 것을 관리한다. |
2개의 손가락이 터치 감지형 표면 상에서 세번 탭핑한다. | 접근성 정보의 출력의 온 및 오프, 예를 들어, 가청 접근성 정보를 음소거하거나 말하는 것을 토글한다. |
3개의 손가락이 터치 감지형 표면 상에서 세번 탭핑한다. | 개인정보 스크린의 온 및 오프를 토글한다. 즉, 디스플레이된 콘텐츠 및 사용자 인터페이스 요소들을 보는 것을 방지하는 "스크린 커튼" 또는 빈 스크린의 디스플레이를 토글한다. |
표 1의 접근성 제스처들은 단지 예시이다. 일부 실시예들에서, 반대되는 제스처들(예를 들어, 오른쪽을 향한 제스처 대 대응하는 왼쪽을 향한 제스처, 또는 상방 제스처 대 대응하는 하방 제스처)에 대한 응답이 표 1에 나타낸 것들과 반대로 될 수 있다. 예를 들어, 한 손가락이 오른쪽에서 플릭하는 것이 현재 포커스를 이전 요소로 이동시킬 수 있고, 한 손가락이 왼쪽에서 플릭하는 것이 현재 포커스를 다음 요소로 이동시킬 수 있다. 일부 실시예들에서, 반대되는 제스처들에 대한 응답들은 예를 들어, 설정들 또는 옵션 메뉴를 통해 사용자가 구성가능하다.
일부 실시예들에서, 접근성 사용자 인터페이스는 사용자로 하여금 커맨드를 미리 정의된 제스처와 연관시키게 할 수 있다. 일부 실시예들에서, 제스처는 변경자 키(예를 들어, 제어, 옵션, 커맨드 또는 시프트 키)와 결합되어 사용자의 선택의 임의의 커맨드에 매핑될 수 있다. 예를 들어, 사용자는 활성화된 제어 키에 의해 2개의 손가락 회전 제스처를 접근성 정보의 음성 레이트를 조절하는 커맨드에 매핑하도록 선택할 수 있다.
UI(500A)-UI(500G)(도 5a-5g)는 하나의 사용자 인터페이스 스크린 상에 디스플레이된 사용자 인터페이스 요소들의 시퀀스를 통해 어드밴스하는 예를 도시한다.
UI(500A)(도 5a)는 휴대용 다기능 장치(100) 상의 애플리케이션들의 메뉴에 대한 예시적인 사용자 인터페이스를 도시하며, 여기서 사용자 인터페이스는 애플리케이션 아이콘, 본원에서는 텍스팅 아이콘(141)을 둘러싸는 접근성 커서(502)를 포함한다. 접근성 커서(502)는 텍스팅 아이콘(141)이므로, 현재 포커스는 텍스팅 아이콘(141)에 있거나 텍스팅 아이콘(141) 상에 있다.
사용자 제스처(504), 예를 들어 손가락 스와이프 또는 플릭 제스처는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(504-2) 터치 스크린(112) 상의 초기 접촉(504-1)을 갖는다. 단, UI(500A)에서, 예시적인 사용자 제스처(504)는 텍스팅 아이콘(141), 사진 애플리케이션 아이콘(144) 또는 접근성 사용자 인터페이스에 디스플레이된 임의의 다른 아이콘들을 접촉하는 것과는 독립적이다.
UI(500B)(도 5b)는 사용자 제스처(504)를 따르는 예시적인 사용자 인터페이스를 도시한다. 접근성 커서(502)는 사용자 제스처(504)에 응답하여 텍스팅 아이콘(141)으로부터 사진 애플리케이션 아이콘(144)으로 이동되었다. 이는 현재 포커스가 이제는 텍스팅 아이콘(141)이 아닌 사진 애플리케이션 아이콘(144)에 있거나 사진 애플리케이션 아이콘(144) 상에 있음을 나타낸다. "사진" 또는 "사진 애플리케이션" 또는 "사진 선택을 위한 탭"과 같은 사진 애플리케이션 아이콘(144)과 연관된 가청 정보가 또한 사용자 제스처(504)에 응답하여 출력된다.
UI(500C)(도 5c)는 예시적인 사용자 인터페이스 상의 사용자 제스처(506), 예를 들어, 다른 손가락 스와이프 또는 플릭 제스처를 도시한다. 제스처(506)는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(506-2) 터치 스크린(112) 상의 초기 접촉(506-1)을 갖는다. 단, 예시적인 사용자 제스처(506)는 사진 애플리케이션 아이콘(144), 카메라 애플리케이션 아이콘(143) 또는 접근성 사용자 인터페이스에 디스플레이된 임의의 다른 아이콘들을 접촉하는 것과는 독립적으로 유지된다.
UI(500D)(도 5d)는 사용자 제스처(506)(도 5c)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 카메라 애플리케이션 아이콘(143)으로 이동된 것을 도시한다. "카메라" 또는 "카메라 애플리케이션" 또는 "카메라 선택을 위한 탭"과 같은 카메라 애플리케이션 아이콘(143)과 연관된 가청 정보가 또한 사용자 제스처(506)에 응답하여 출력된다.
UI(500D)는 또한 예시적인 사용자 인터페이스 상의 사용자 제스처(508), 예를 들어 다른 손가락 스와이프 또는 플릭 제스처를 도시한다. 제스처(508)는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(508-2) 터치 스크린(112) 상의 초기 접촉(508-1)을 갖는다. 단, 예시적인 사용자 제스처(508)는 카메라 애플리케이션 아이콘(143), 비디오 애플리케이션 아이콘(145) 또는 접근성 사용자 인터페이스에 디스플레이된 임의의 다른 아이콘들을 접촉하는 것과는 독립적으로 유지된다.
UI(500E)(도 5e)는 사용자 제스처(508)(도 5d)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 비디오 애플리케이션 아이콘(145)으로 이동된 것을 도시한다. "비디오" 또는 "비디오 애플리케이션" 또는 "비디오 선택을 위한 탭"과 같은 비디오 애플리케이션 아이콘(145)과 연관된 가청 정보가 또한 사용자 제스처(508)에 응답하여 출력된다.
UI(500E)는 또한 예시적인 사용자 인터페이스 상의 사용자 제스처(510), 예를 들어 다른 손가락 스와이프 또는 플릭 제스처를 도시한다. 제스처(510)는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(510-2) 터치 스크린(112) 상의 초기 접촉(510-1)을 갖는다. 단, 예시적인 사용자 제스처(510)는 우연히 날씨 애플리케이션 아이콘(149-1)을 접촉하지만, 제스처(510)에 대한 검출, 해석 및 응답은 비디오 애플리케이션 아이콘(145), 날씨 애플리케이션 아이콘(149-1), 또는 접근성 사용자 인터페이스에 디스플레이된 임의의 다른 아이콘들을 접촉하는 것과는 독립적으로 유지된다.
UI(500F)(도 5f)는 사용자 제스처(510)(도 5e)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 제1 행의 애플리케이션 아이콘(514)으로부터 다음 행의 애플리케이션 아이콘(516)의 날씨 애플리케이션 아이콘(149-1)으로 이동된 것을 도시한다. "날씨" 또는 "날씨 애플리케이션" 또는 "날씨 선택을 위한 탭"과 같은 날씨 애플리케이션 아이콘(149-1)과 연관된 가청 정보가 또한 사용자 제스처(510)에 응답하여 출력된다. 일부 실시예들에서, 가청 정보는 또한 현재 포커스가 사용자 제스처(510)에 응답하여 다른 행의 사용자 인터페이스 요소로 이동되었음을 나타내는 래핑 사운드(wrapping sound)를 포함한다. 사용자는 계속해서 왼쪽에서 오른쪽으로 손가락 스와이프 또는 플릭 제스처들(도시 생략)을 입력함으로써, 접근성 사용자 인터페이스의 사용자 인터페이스 요소들의 집합을 통해 계속해서 왼쪽에서 오른쪽으로, 상부에서 하부로 네비게이트할 수 있다.
UI(500F)는 또한 예시적인 사용자 인터페이스 상의 사용자 제스처(512), 예를 들어, 오른쪽에서 왼쪽으로의 손가락 스와이프 또는 플릭 제스처를 도시한다. 사용자 제스처들(504, 506, 508 및 510)의 방향과 실질적으로 반대인 제스처(512)는 터치 스크린(112)의 왼쪽 에지를 향해 이동하는(512-2) 터치 스크린(112) 상의 초기 접촉(512-1)을 갖는다. 단, 예시적인 사용자 제스처(512)는 날씨 애플리케이션 아이콘(149-1), 비디오 애플리케이션 아이콘(145) 또는 접근성 사용자 인터페이스에 디스플레이된 임의의 다른 아이콘들을 접촉하는 것과는 독립적으로 유지된다.
UI(500G)(도 5g)는 사용자 제스처(512)(도 5f)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 제1 행의 애플리케이션(514)의 비디오 애플리케이션 아이콘(145)으로 뒤로 이동된 것을 도시한다. "비디오" 또는 "비디오 애플리케이션" 또는 "비디오 선택을 위한 탭"과 같은 비디오 애플리케이션 아이콘(145)과 연관된 가청 정보가 또한 사용자 제스처(512)에 응답하여 출력된다. 일부 실시예들에서, 가청 정보는 또한 현재 포커스가 사용자 제스처(512)에 응답하여 다른 행의 사용자 인터페이스 요소로 이동되었음을 나타내는 래핑 사운드를 포함한다. 따라서, 한 방향의 위치 독립적 사용자 제스처들은 사용자 인터페이스 요소들의 주어진 시퀀스 또는 순서를 통해 현재 포커스를 어드밴스할 수 있고, 실질적으로 반대 방향의 위치 독립적 사용자 제스처들은 현재 포커스가 사용자 인터페이스 요소들의 주어진 시퀀스 또는 순서를 통해 리트리트되거나(retreat) 백트랙(backtrack)하게 할 수 있다. 사용자 인터페이스 요소들의 시퀀스를 통해 어드밴스하거나 백트랙하는 것은 사용자 인터페이스 요소들의 행들, 스크린들, 계층구조들, 페이지들 및/또는 레벨들을 통해 위로 또는 아래로 이동하는 것을 포함할 수 있다.
UI(500H)-UI(500I)(도 5h-5i)는 위치 의존적 제스처를 사용하여 현재 포커스 및 접근성 커서를 이동시키는 예를 도시한다. 이 예에서, 접근성 커서(502) (및 현재 포커스)는 초기에 비디오 아이콘(145) 상에 또는 비디오 아이콘(145)에 있다. UI(500H)에 도시된 사용자 제스처(517)는 터치 스크린(112) 상에서의 정적인 접촉, 예를 들어 한 손가락이 음악 애플리케이션 아이콘(146) 상에서 탭핑하는 것이다.
UI(500I)(도 5i)는 사용자 제스처(517)(도 5h)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 음악 애플리케이션 아이콘(146)으로 이동하는 것을 도시한다. "음악" 또는 "음악 애플리케이션" 또는 "음악 선택을 위한 탭"과 같은 음악 애플리케이션 아이콘(146)과 연관된 가청 정보가 또한 사용자 제스처(517)에 응답하여 출력된다. 따라서, 접근성 사용자 인터페이스는 손가락 제스처(예를 들어, 제스처(517))의 위치에서 사용자 인터페이스 요소들에 대한 접근성 정보를 제공하는 네비게이션을 위한 위치 의존적 손가락 제스처들뿐만 아니라, 손가락 제스처(예를 들어, 제스처들(504, 506, 508, 510 및 512)의 위치와 독립적인 사용자 인터페이스 요소들에 대한 접근성 정보를 제공하는 네비게이션을 위한 위치 독립적 손가락 제스처들을 포함할 수 있다.
UI(500I)-UI(500J)(도 5i-5j)는 상이한 사용자 인터페이스 스크린들 상에 디스플레이된 사용자 인터페이스 요소들의 시퀀스를 통한 어드밴스의 예를 도시한다. UI(500I)에서, 장치 상의 상이한 애플리케이션들을 개시하기 위한 사용자 인터페이스 요소들의 제1 스크린(518)이 도시되고, UI(500J)에서, 사용자 인터페이스 요소들의 제2 스크린(520)이 도시된다. 본 예에서, 접근성 커서(502) (및 현재 포커스)는 처음에는 음악 애플리케이션 아이콘(146), 즉 사용자 인터페이스 요소들의 제1 스크린(518)의 마지막 사용자 인터페이스 요소에 또는 그 위에 있다. UI(500I)에 도시된 사용자 제스처(519)는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(519-2) 터치 스크린(112) 상의 초기 접촉(519-1)을 갖는다.
UI(500J)(도 5j)는 사용자 제스처(519)(도 5i)에 응답하여, 현재 포커스, 따라서 접근성 커서(502)가 제1 스크린(518)으로부터 제2 스크린(520)에 대한 사용자 인터페이스 요소들의 집합의 제1 사용자 인터페이스 요소, 즉 온라인 비디오 애플리케이션 아이콘(155)으로 이동된 것을 도시한다. "온라인 비디오" 또는 "온라인 비디오 애플리케이션" 또는 "온라인 비디오 선택을 위한 탭"과 같은 온라인 비디오 애플리케이션 아이콘(155)과 연관된 가청 정보가 또한 사용자 제스처(519)에 응답하여 출력된다. 일부 실시예들에서, 가청 정보는 또한 현재 포커스가 사용자 제스처(519)에 응답하여 다른 페이지/스크린 상의 사용자 인터페이스 요소로 이동된 것을 나타내는 스크린 변경 사운드를 포함한다.
UI(500K)-UI(500O)(도 5k-5o)는 한번에 하나의 문자를 사용자 인터페이스 요소들의 시퀀스를 통해 어드밴스하는 예를 도시한다.
UI(500K)(도 5k)는 일부 실시예들에 따라 전자 장치 상의 텍스트 입력을 위한 사용자 인터페이스 요소들 간의 터치 기반 네비게이션에 대한 예시적인 접근성 사용자 인터페이스를 도시한다. 현재 포커스는 사용자 이름 텍스트 입력 요소(530) 내에 있으며, 여기서 텍스트 커서(532)는 제1 텍스트 스트링(534)(여기서는, 스트링 "클라이언트(client)") 앞에 디스플레이된다. 사용자 이름 텍스트 입력 요소(530)는 사용자 이름의 입력을 위한 것이고, 대응하는 제1 사용자 인터페이스 요소 레이블(536), 즉 "사용자 이름(User Name)"을 갖는다. 비밀번호 텍스트 입력 요소(538)는 비밀번호의 입력을 위한 것이고, 대응하는 제2 사용자 인터페이스 요소 레이블(540), 즉 "비밀번호(Password)" 및 대체 개인정보 문자들에 의해 선택적으로 디스플레이되는 제2 텍스트 스트링(542)을 갖는다.
사용자 제스처(544), 예를 들어 위치 독립적 스와이프 또는 플릭 제스처는 터치 스크린(112)의 하부 에지를 향해 이동하는(544-2) 터치 스크린(112) 상의 초기 접촉(544-1)을 갖는다. 단, 제스처(544)에 대한 검출, 해석 및 응답은 접근성 사용자 인터페이스에 디스플레이된 임의의 특정 아이콘을 접촉하는 것과는 독립적이다.
UI(500L)(도 5l)는 사용자 제스처(544)를 따르는 예시적인 사용자 인터페이스를 도시한다. 사용자 제스처(544)에 응답하여, 텍스트 커서(532)는 하나의 문자를 즉, 사용자 이름 텍스트 입력 요소(530) 내의 제1 텍스트 스트링(534) 앞의 위치로부터 스트링 "client"의 "c" 바로 다음 위치로 어드밴스하였다. 이는 텍스트 커서(532)가 사용자 이름 텍스트 입력 요소(530) 내의 제1 텍스트 스트링(534)의 스트링 "client"의 "c"와 "l" 사이에 있음을 나타낸다. 철자 "c"를 말하는 것과 같은 텍스트 커서(532)의 이동과 연관된 접근성 정보가 또한 사용자 제스처(544)에 응답하여 출력된다.
UI(500L)(도 5l)는 또한 예시적인 사용자 인터페이스 상의 사용자 제스처(546), 예를 들어, 다른 위치 독립적 손가락 스와이프 또는 플릭 제스처를 도시한다. 제스처(546)는 실질적으로 사용자 제스처(544)와 반대로, 즉 터치 스크린(112)의 상부 에지를 향해 이동시키는(546-2) 터치 스크린(112) 상의 초기 접촉(546-1)을 갖는다.
UI(500M)(도 5m)는 사용자 제스처(546)에 응답하여, 텍스트 커서(532)가 사용자 이름 텍스트 입력 요소(530) 내의 제1 텍스트 스트링(534) 앞의 위치로 현재 포커스를 리턴하기 위하여 하나의 문자를 리트리트한 것을 도시한다. 철자 "c"를 말하는 것과 같은 텍스트 커서(532)의 이동과 연관된 접근성 정보가 또한 사용자 제스처(546)에 응답하여 출력된다.
UI(500N)(도 5n)는 텍스트 커서(532)가 사용자 이름 텍스트 입력 요소(530) 내의 제1 텍스트 스트링(534)의 끝부분에 있는 예를 도시한다. UI(500N)(도 5n)는 예시적인 사용자 인터페이스 상의 사용자 제스처(550), 예를 들어, 다른 위치 독립적 손가락 스와이프 또는 플릭 제스처를 도시한다. 제스처(550)는 터치 스크린(112)의 하부 에지를 향해 이동하는(550-2) 터치 스크린(112) 상의 초기 접촉(550-1)을 갖는다. 제스처(550)에 응답하여, 텍스트 커서(532)는 제1 텍스트 스트링(534)(도 5n)의 끝부분에서 유지되고, 비프 사운드 또는 보더에 대한 다른 가청 표시와 같이 텍스트 입력 요소(530)의 텍스트의 끝부분에 도달했다는 것을 나타내는 접근성 정보가 출력된다.
도 5n은 또한, 한 손가락으로 아래로 플릭하기 제스처(550)에 대한 대안적인 제스처, 즉 한 손가락으로 오른쪽으로 플릭하기 제스처(551)를 도시한다. 제스처(551)는 터치 스크린(112)의 오른쪽 에지를 향해 이동하는(551-2) 터치 스크린(112) 상의 초기 접촉(551-1)을 갖는다.
UI(500O)(도 5o)는 사용자 제스처(551)(도 5n)에 응답하여, 장치가 텍스트 커서(532)를 사용자 이름 텍스트 입력 요소(530)로부터(여기서 텍스트 커서(532)는 제1 텍스트 스트링(534)의 끝부분에 있었음) 비밀번호 텍스트 입력 요소(538) 내의 제2 텍스트 스트링(542)의 시작부분으로 어드밴스하는 것을 도시한다. "비밀번호" 또는 "비밀번호 필드"를 말하는 것과 같은 텍스트 커서(532)의 이동과 연관된 접근성 정보가 또한 사용자 제스처(551)에 응답하여 출력된다.
가청 문서 섹션 표시
도 5p-5t는 일부 실시예들에 따라 터치 기반 문서 네비게이션 동안 문서들 내에서 네비게이션하고 문서 섹션 표시를 가청 통신하기 위한 예시적인 접근성 사용자 인터페이스들을 도시한다. 이들 도면들의 사용자 인터페이스들은 도 8a-8b에 대하여 이하에서 기술되는 프로세스들을 도시하는 데에 사용된다.
UI(500P)(도 5p)는 문서 섹션 표시를 통신하는 예시적인 사용자 인터페이스를 도시한다. 문서 디스플레이 영역(552)은 전체 문서(문서가 충분히 작은 경우), 또는 문서가 너무 커서 문서 디스플레이 영역(552) 내에 맞출 수 없는 경우의 문서의 섹션을 디스플레이한다. UI(500P)에서, 문서 디스플레이 영역(552) 내에 디스플레이되는 예시적인 문서(553)는 너무 커서 디스플레이 영역 내에 맞출 수 없다. 그러나, 문서(553)는 4개의 섹션들, 즉 553-1(도 5p), 553-2(도 5q), 553-3(도 5r), 및 553-4(도 5s)로 디스플레이될 수 있다. 일부 실시예들에서, 본원 명세서에서 도시된 예와 같이, 디스플레이되고 있는 문서의 부분 및 문서 내에서의 그 상대적인 위치를 나타내기 위하여 옵션인 시각적인 문서 섹션 표시(554)가 디스플레이된다. 도 5p에서, 문서의 시작부분 섹션(553-1)이 문서 디스플레이 영역(552) 내에 디스플레이되고 있는 것을 나타내기 위하여 시각적인 문서 섹션 표시(554)가 문서 디스플레이 영역(552)의 상부 근처에 디스플레이된다.
본 예시적인 실시예에서 3개의 손가락들에 의해 수행되는 다중 손가락 사용자 제스처(555)(도 5p)가 터치 스크린(112)의 상부 에지를 향해 이동하는(555-4, 555-5, 및 555-6) 터치 스크린(112) 상의 초기 접촉들(555-1, 555-2, 및 555-3)을 갖는다. 즉, 제스처(555)는 3개의 손가락의 상방의 플릭 또는 스와이프 제스처(표 1 참조)이다.
UI(500Q)(도 5q)는 사용자 제스처(555)에 응답하여, 사용자 인터페이스가 문서의 시작부분(553-1)을 디스플레이하는 것을 중단하고, 문서 디스플레이 영역(552) 내의 문서의 인접한 제2 섹션(553-2)을 디스플레이하는 것을 도시한다. 따라서, 시각적인 문서 섹션 표시(554)가 문서 디스플레이 영역(552)의 더 낮은 부분에 디스플레이된다. 또한, 접근성 사용자 인터페이스는 "4개의 섹션 중 섹션 2(section 2 of 4)", "4 페이지 중 2 페이지(page 2 of 4)" 또는 "디스플레이되는 문서의 4개의 섹션 중 섹션 2(section 2 of 4 of document being displayed)"를 말하는 음성 메시지와 같은 가청 문서 섹션 표시를 출력한다.
본 예시적인 실시예에서 3개의 손가락들에 의해 수행되는 다중 손가락 사용자 제스처(556)(도 5q)는 터치 스크린(112)의 상부 에지를 향해 이동하는(556-4, 556-5, 및 556-6) 터치 스크린(112) 상의 초기 접촉들(556-1, 556-2, 및 556-3)을 갖는다. 즉, 제스처(556)는 다른 3개의 손가락의 상방의 플릭 또는 스와이프 제스처(표 1 참조)이다.
UI(500R)(도 5r)는 사용자 제스처(556)에 응답하여, 사용자 인터페이스가 문서의 제2 섹션(553-2)을 디스플레이하는 것을 중단하고, 문서 디스플레이 영역(552) 내의 문서의 인접한 제3 섹션(553-3)을 디스플레이하는 것을 도시한다. 따라서, 문서의 제2 섹션(553-2)이 문서 디스플레이 영역(552)에 디스플레이되고 있는 경우, 시각적인 문서 섹션 표시(554)는 UI(500Q)에 디스플레이된 문서 디스플레이 영역(552)의 보다 더 낮은 부분에 디스플레이된다. 또한, 접근성 사용자 인터페이스는 "4개의 섹션 중 섹션 3(section 3 of 4)", "4 페이지 중 3 페이지(page 3 of 4)" 또는 "디스플레이되는 문서의 4개의 섹션 중 섹션 3(section 3 of 4 of document being displayed)"를 말하는 음성 메시지와 같은 가청 문서 섹션 표시를 출력한다.
본 예시적인 실시예에서 세 개의 손가락으로 수행되는, 다중-손가락 사용자 제스처(557; 도 5r)는 터치 스크린(112) 상에서, 터치 스크린(112)의 상부 에지를 향해 이동(557-4, 557-5 및 557-6)하는 초기 접촉들(557-1, 557-2 및 557-3)을 갖는다. 다시 말해서, 제스처(557)는 또 다른 세-손가락 상향 플릭(flick) 또는 스윕(swipe) 제스처이다(표 1).
UI(500S; 도 5s)는, 다중-손가락 사용자 제스처(557)에 응답하여 사용자 인터페이스가 문서의 제3 섹션(553-3) 디스플레이를 중단하고, 문서 디스플레이 영역(552) 내에 (본 실시예에서 문서의 끝을 포함하고 있는) 문서의 제4의 인접 섹션(553-4)을 디스플레이하는 것을 도시한다. 따라서, 시각 문서 섹션 인디시아(554)는 문서 디스플레이 영역(552)의 하부에 디스플레이된다. 또한, 접근성 사용자 인터페이스가 "4개 섹션 중 4", "4개 페이지 중 4", 또는 "디스플레이 중인 문서의 4개 섹션 중 4" 또는 "문서의 마지막"이라고 말하는 음성 메시지와 같은 가청 문서 섹션 인디시아를 출력한다.
본 예시적인 실시예에서 세 개의 손가락으로 수행되는, 다중-손가락 사용자 제스처(558; 도 5s)는 터치 스크린(112) 상에서, 터치 스크린(112)의 하부 에지를 향해(즉, 사용자 제스처(555, 556 및 557)에 실질적으로 반대 방향으로) 이동(558-4, 558-5 및 558-6)하는 초기 접촉들(558-1, 558-2 및 558-3)을 갖는다. 다시 말해서, 제스처(558)는 세-손가락 하향 플릭 또는 스윕 제스처이다(표 1).
UI(500T; 도 5t)는, 사용자 제스처(558)에 응답하여 사용자 인터페이스가 문서의 제4 섹션(553-4)을 디스플레이하기를 중단하고, 문서 디스플레이 영역(552) 내에 문서의 제3의 인접 섹션(553-3)을 다시 디스플레이하는 것을 도시한다. 시각 문서 섹션 인디시아(554)의 디스플레이는 문서의 제3 섹션(553-3)을 디스플레이하는 것에 대응하는 위치로 이동된다. 따라서, 접근성 사용자 인터페이스가 "4개 섹션 중 3", "4개 페이지 중 3", 또는 "디스플레이 중인 문서의 4개 섹션 중 3"이라고 말하는 음성 메시지와 같은 가청 문서 섹션 인디시아를 출력한다.
UI(500P)-UI(500T)(도 5p-5t)에 디스플레이된 예시적인 실시예에서, 문서(553)의 섹션들은 위에서 아래로 배열되는 페이지들 또는 문서의 섹션들로서 디스플레이된다. 터치 스크린(112)의 상부를 향하여 가는 세-손가락 플릭 제스처는, 만일 다른 후속 문서 섹션이 디스플레이될 수 있다면, 현재 디스플레이되는 문서 섹션에 인접하여 아래에 있는 문서 섹션을 디스플레이할 것이다. 몇몇 실시예에서(도시 생략), 일련의 페이지들 또는 문서 섹션들은 터치-기반 문서 네비게이션의 경우 옆으로 나란히 배열될 수 있다. 이러한 실시예에서, 사용자 제스처는 인접 문서 센셕들 또는 페이지들의 옆으로 나란한 배열과 유사한 방향을 향할 수 있다. 예를 들면, 터치 스크린 디스플레이의 우 또는 좌를 향해 가는 세-손가락 사용자 제스처는 현재 디스플레이되는 섹션이나 페이지에 인접한 문서의 이전 또는 다음 섹션이나 페이지를 디스플레이한다.
접근성 사용자 인터페이스를 기본 사용자 인터페이스로
바이패스
몇몇 실시예에서, 사용자는 모든 사용자 입력 및 애플리케이션을 정상적으로 처리하는 기본 표준인, 비-접근성 사용자 인터페이스로(즉, 접근성 사용자 인터페이스의 컨텍스트 외부) 이벤트들의 패스-스루를 하게 하는 제스처(예를 들면, 터치-기반 제스처, 뿐만 아니라 기타 사용자-입력들)를 수행할 수 있다. 몇몇 실시예에서, 패스-스루를 하게 하도록 사용되는 제스처는 시전 정의된 기간(예를 들면, 0.05와 1.5초 사이의 시간)동안 터치-감지형 표면과 접한 채로 있는 제2 누름름을 포함한 두번-누름 제스처이다(표 1).
네비게이션
설정 제스처
본원에서 논의된 몇몇 접근성 네비게이션 제스처들은 텍스트를 읽거나 텍스트를 입력하기 위해 텍스트-기반 사용자 인터페이스 요소들 사이에서 네비게이트한다. 어떤 제스처는 웹 페이지 상의 사용자 인터페이스 요소에 대한 네비게이션을 허용한다. 또 다른 제스처는 클럭들 상의 설정들, 온도 게이지, 볼륨 설정 등을 움직이는 등의 컨트롤의 조작을 허용한다.
몇몇 실시예에서, 텍스트, 웹페이지, 및/또는 컨트롤의 접근가능한 네비게이션이 수행되는 방법(예를 들면, 위 또는 아래 싱글-손가락 플릭 또는 스윕 제스처에 응답하여, 표 1)에 대한 설정을 변경하는 데 공통 제스처가 사용될 수 있다. 예를 들면, 터치-감지형 표면 상의 두-손가락 로테이션 또는 트위스팅 제스처는 옵션들 사이에서 선택하기 위해 가상 다이얼, 로터(rotor), 또는 손잡이(knob)를 "돌리는(turn)" 데 사용될 수 있다(이하에서는 "로터" 또는 "로터 컨트롤"이라 하고 이 타입의 제스처들은 "로더 제스처"라고 지칭할 수 있음). 이 "로터" 컨트롤은 접근성 사용자 인터페이스에서 특정 네비게이션 제스처들의 검출에 대한 장치의 응답을 변경하기 위해 보이지 않는 다이얼로서 동작한다.
로터 컨트롤의 효과는 컨텍스트의 활용, 즉, 접근성 사용자 인터페이스를 이용하여 현재 네비게이트되고 있는 컨텐트의 유형이 무엇인지에 달려있다. 예를 들면, 이메일의 텍스트를 읽을 때, 로터는 문자별 네비게이션으로부터 단어별 네비게이션으로 변경하는 등, 네비게이션 해상도의 일 레벨로부터 다른 레벨로 접근가능 네비게이션을 스위치할 수 있다. 또한, 로터는 새로운 접근가능 네비게이션 해상도를 반영하도록 가청 텍스트 출력의 방출을 변경한다. 따라서, 컨텐츠에 해당하는 텍스트는, 현재 접근가능한 네비게이션 해상도에 따라, 네비게이션 제스처에 응답하여 단어별 또는 문자별로 발음된다. 다른 예시로서, 로터는 웹페이지를 브라우징할 때에 액세스 가능 네비게이션 및 가청 텍스트 출력의 배출을 변경하는 데 사용될 수 있다. 예를 들면, 하나 이상의 로터 제스처에 응답하여, 웹페이지에 해당하는 텍스트를 단어별로 네비게이트하여 말하거나, 웹페이지에 해당하는 텍스트를 문자별로 네비게이트하여 말하거나, 웹 페이지 헤더들 사이에서 네비게이트하여 무엇이 웹페이지의 헤더인지를 가리키는 텍스트를 말하거나, 웹 페이지 상의 링크들 사이에서 내비게이트하여 웹페이지 상의 이들 링크(이들 전부는 단순 방문 링크, 또는 아직 방문하지 않은 단순 링크임)를 말하거나, 웹페이지 상의 폼 요소들 사이에서 네비게이트하여 웹페이지로부터 폼 요소들을 말하거나, 웹페이지 상의 이미지들 사이에서 네비게이트하여 이들 이미지의 디스크립션을 말하도록 장치가 설정될 수 있다.
표 2는 접근성 사용자 인터페이스 내의 네비게이션 컨텍스트에 따른 예시적인 로터 옵션들을 설명한다.
표 2: 예시적인
네비게이션
설정들 옵션
네비게이션 컨텍스트 | 파라미터들/옵션들 변경 |
텍스트 읽기 | 텍스트를 문자별, 단어별, 문장별, 라인별, 문단별 또는 페이지별로 선택하여 듣기 |
웹페이지 브라우징 | 텍스트를 문자별, 단어별, 문장별, 라인별, 문단별, 페이지별, 헤더별, 링크별, 폼 요소별, 방문한 링크별, 방문하지 않은 링크별, 또는 이미지의 디스크립션별로 선택하여 듣기 |
텍스트 입력 | 삽입 포인트(텍스트 커서)를 이동하여 문자별, 단어별로 듣기 및/또는 제안된 자동-완성 텍스트 듣기 |
컨트롤 값들 변경 | 값을 문자별 또는 단어별로 선택하여 듣기. 컨트롤 개체들; 날짜 포맷들; 시간 포맷들; 언어 설정들; 측정 단위; 온도 스케일; 스플리터 사용자 인터페이스 요소들(즉, 뷰가 애플리케이션 내 다른 뷰에 비하여 얼마큼의 공간을 갖는지를 컨트롤하는 단일 라인 사용자 인터페이스 요소, 예를 들면 이메일 애플리케이션에서, 이메일 메시지들 테이블과 이메일 메시지 미리보기 컨텐츠 윈도우 사이의 스플리터 라인); 수평, 수직, 또는 원형 슬라이더들; 또는 연속적 또는 불연속적 값들 중 하나의 범위를 갖는 기타 유형의 컨트롤들의 값 조정. |
사용자 인터페이스 요소들 | 현재 포커스(즉, 현재 선택된 사용자 인터페이스 요소) 위 또는 아래에 있는 사용자 인터페이스 요소들로 이동 |
몇몇 실시예에서, 로터-기반 제스처는 어떤 거리만큼 분리된 제1 손가락 접촉 및 제2 손가락 접촉을 포함하는데, 제1 손가락 접촉과 제2 손가락 접촉 사이의 거리는 중앙 포인트를 포함하고, 제1 손가락 접촉과 제2 손가락 접촉은 중앙 포인트 주변의 터치 스크린 디스플레이에서 회전한다. 요약하면, 상술한 바와 같이, 이 회전 제스처는 손잡이를 한쪽 방향 또는 다른 방향으로 돌리거나 트위스팅하는 것을 시뮬레이팅한다. 제스처가 진행함에 따라, 시뮬레이팅된 손잡이 돌리기는 현재의 네비게이션가능 유닛 타입을 변경한다.
몇몇 실시예에서, 로터-기반 제스처는 터치-감지형 표면에 제1 손가락 접촉을 위치시키는 것, 터치-감지형 표면 상에 제2 손가락 접촉을 동시에 위치시키는 것, 및 제1 손가락 접촉은 가만히 둔 채로 제2 손가락 접촉이 제1 손가락 접촉의 주변을 회전하는 것을 포함한다. 이 실시예에서, 제1 손가락 접촉은 제2 손가락 접촉에 의한 회전에 대한 중앙 포인트로서 역할한다.
예를 들면, 사용자에게, 터치-감지형 표면에서의 그 사용자의 네비게이션 요청들에 응답하여 한번에 하나의 네비게이션가능한 "유닛"으로 텍스트가 읽혀지는 터치-감지형 표면이 있는 접근성 전자 장치를 고려하자(즉, 사용자의 네비게이션 요청들 각각은 사용자에게 읽혀지는 하나의 유닛, 즉, 문자별, 단어별, 라인별 등이 된다). 네비게이션가능한 유닛 타입을 변경하는 것은 로터 제스처와 같은 네비게이션 설정 제스처에 의해 달성된다. 몇몇 실시예에서, 로터 제스처는 텍스트를 문자별로 읽는 것과 텍스트를 단어별로 읽는 것 사이에서 네비게이션가능 유닛 설정을 토글한다. 몇몇 실시예에서, 로터 제스처는 유닛 타입들을 통틀어 스퀀치함으로써 네비게이션 유닛 타입을 가장 작은것에서부터 가장 큰것까지(또는 그 반대로) 변경한다(예를 들면, 문자가 가장 작은 네비게이션가능 유닛 타입, 그 다음 단어, 문장, 라인, 단락 및 페이지순).
다른 제한적이지 않은 조정될 수 있는 네비게이션가능 유닛들의 예시로는: 웹 컨텐츠(예를 들면, 헤더들, 링크들, 방문한 링크들, 등); 구성 설정들(예를 들면, 날짜 포맷들, 시간 포맷들, 언어 설정들, 측정의 유닛, 온도 스케일들; 스플리터 사용자 인터페이스 요소들(즉, 애플리케이션 내의 다른 뷰에 비하여 뷰가 얼마큼의 공간을 가질 지를 제어하는 단일 라인 사용자 인터페이스 요소, 예를 들면, 이메일 애플리케이션에서, 이메일 메시지들 테이블과 이메일 메시지 미리보기 컨텐츠 윈도우 사이의 스플리터 라인); 수평, 수직, 또는 원형 슬라이더들; 또는 연속적 또는 불연속적 값들 중 하나의 범위을 갖는 기타 유형의 컨트롤들이 있다.
몇몇 실시예에서, 접근가능 시스템의 터치-감지형 표면 상에서 위치-독립적 방식으로 수행되는 제스처에 의해 네비게이션 설정들이 조정된다. 따라서, 접근성 사용을 위해 시스템이 설계되므로, 현재 네비게이션가능 유닛 타입을 조정하기 위해 터치 감지형 표면의 임의의 특정 부분 또는 임의의 특정 사용자 인터페이스 요소에 접촉할 필요가 없다. 몇몇 실시예에서, 로터를 조정하는 제스처들은 임의의 사용자 인터페이스 요소들을 접촉하는 것에 독립적이다.
UI(500U) 내지 UI(500CC)(각각 도 5u-5cc)와 함께 UI(500K)-UI(500M)(각각 도 5k-5m)은 본원에 개시된 접근성 사용자 인터페이스들 내 네비게이션 설정들을 조정하기 위한 로터 제스처의 예시적인 동작들을 도시하는 예시적인 사용자 인터페이스들이다.
상술한 바와 같이, UI(500K)-UI(500M)은 몇몇 실시예에 따르는 전자 장치 상의 텍스트 엔트리를 위한 사용자 인터페이스 요소들 사이에서 터치-기반 네비게이션을 위한 예시적인 사용자 인터페이스를 도시한다. UI(500K)-UI(500M)에서, 텍스트 커서(532)의 네비게이션은 문자별 기반으로 설정된다. 예를 들면, 텍스트 커서(532) 부분을 보면 사용자 제스처들(544; 도 5k 및 546; 도 5l 각각)에 응답하여 한 문자를 전진 및 후진한다.
UI(500U)(도 5u)에서, 사용자 이름 텍스트 엔트리 요소(530)가 접근성 커서(502)에 의해 하이라이트되기 때문에 선택된다. 현재 포커스는 사용자 이름 텍스트 엔트리 요소(530) 내에 있는데, 여기서 텍스트 커서(532)가 텍스트 스트링(560; 여기서는 스트링 "client li") 맨앞에 디스플레이된다. 로터 제스처(562)는 손잡이 또는 로터를 돌리는 것을 시뮬레이트하는, 터치-감지형 표면 상에서 회전하거나 트위스트하는(562-3 및 562-4) 제1 손가락 접촉(562-1) 및 제2 손가락 접촉(562-2)을 포함한다.
UI(500U)에서는 보이지 않지만, 전자 장치는 로터 제스처(562)를 검출하는 것에 응답하여 현재 내비게이션가능 유닛 타입을 문자에서 단어로 변경한다. 네비게이션가능 유닛 타입에 대한 접근성 정보는 또한 로터 제스처(562)를 검출하는 것에 응답하여 방출된다. 여기서, 접근성 정보는 현재 내비게이트가능한 유닛 타입이 이제 "단어"로 설정되어 있다고 사용자에게 지시한다(예를 들면, 발음되는 출력이 "단어" 또는 "단어별 내비게이팅"이라고 말함). 이 예시에서, 로터 제스처(562)는 반시계방향 회전가능 패턴으로 수행된다.
몇몇 실시예에서(도시 생략), 접근성 정보는 현재 네비게이션가능한 유닛 타입의 시각 표지를 제공하는 그래픽 인디시아를 포함할 수 있다.
몇몇 실시예에서, 반시계방향 회전가능 패턴을 사용하면 현재 네비게이션가능한 유닛 타입들을 증가하는 증분으로(예를 들면, 문자에서, 단어로, 라인으로, 문장으로, 그리고 나서 다시 문자로) 수정할 것인 반면에, 시계방향 회전가능 패턴을 사용하면 현재 네비게이션가능한 유닛 타입들을 감소하는 증분으로(예를 들면, 문장에서, 라인으로, 단어로, 문자로, 그리고 나서 다시 문장으로) 수정할 것이다. 대안적 실시예에서, 반시계방향 회전가능 패턴을 사용하면 현재 네비게이션가능한 유닛 타입들을 감소하는 증분으로 수정할 것인 반면에, 시계방향 회전가능 패턴을 사용하면 현재 네비게이션가능한 유닛 타입들을 증가하는 증분으로 수정할 것이다.
UI(500V; 도 5v)는 예시적인 사용자 인터페이스 상에 제스처(564)(예를 들어, 손가락 스윕 또는 플릭 제스처)를 도시한다. 제스처(564)는 터치 스크린(112) 상에서 터치 스크린(112)의 하부 에지를 향하여 이동하는(564-2) 초기 접촉(564-1)을 갖는다.
UI(500W; 도 5w)는 텍스트 커서(532)가 제스처(564)에 응답하여 한 단어 앞으로(즉, 텍스트 스트링 "client"의 시작으로부터 이름 "li"의 시작으로) 이동한 것을 도시한다. 이 움직임은 사용자 제스처(544)(도 5k)에 응답하여 텍스트 커서(532)가 한 문자만 앞으로(즉, 사용자 이름 텍스트 엔트리 요소(530) 내 제1 텍스트 스트링(534)의 맨 앞 위치로부터 스트링 "client"의 "c" 바로 뒤 위치로) 전진한 UI(500L)에 도시된 동작과 대조적이다. 동작에서의 차이는 현재 네비게이션가능한 유닛 타입을 문자에서 단어로 변경하는 네비게이션 설정 제스처(로터 제스처(562)) 때문이다.
UI(500X; 도 5x)에서, 로터 제스처(566)는 손잡이 또는 로터를 돌리는 것을 시뮬레이트하는 터치 감지형 표면 상에서 회전하거나 트위스트하는(566-3 및 566-4) 제1 손가락 접촉(566-1)과 제2 손가락 접촉(566-2)을 포함한다. 로터 제스처(566)는 시계방향으로, UI(500U)에서의 로터 제스처(562)의 반시계방향과 실질적으로 반대이다.
UI(500X)에 보이지는 않지만, 로터 제스처(566)를 검출하는 것에 응답하여 전자 장치는 현재 네비게이션가능 유닛 타입을 단어에서 문자로 변경한다. 네비게이션 유닛 타입에 관한 접근성 정보는 또한 로터 제스처(566)를 감지하는 것에 응답하여 방출된다. 여기서, 접근성 정보는 현재 네비게이션가능한 유닛 타입이 이제 "문자"로 설정되었음을 사용자에게 가리킨다(예를 들면, 발음되는 출력이 "문자" 또는 "문자별 내비게이팅"이라고 말함).
UI(500Y; 도 5y)는 예시적인 사용자 인터페이스 상에서 사용자 제스처(568)(예를 들면, 손가락 스윕 또는 플릭 제스처)를 도시한다. 제스처(568)는 터치 스크린(112) 상에서 터치 스크린(112)의 하부 에지를 향하여 이동하는(568-2) 초기 접촉(568-1)을 갖는다.
UI(500Z; 도 5z)는 텍스트 커서(532)가 제스처(568)에 응답하여 단어 "li"에서 "l" 과 "i" 사이의 한 단어 앞 자리로 이동한 것을 도시한다. 이 움직임은 사용자 제스처(564)(도 5v)에 응답하여 텍스트 커서(532)가 한 단어 앞에 있는 UI(500W)에 도시된 동작과 대조적이다. 동작에서의 차이는 현재 네비게이션가능한 유닛 타입을 단어에서 문자로 변경하는 네비게이션 설정 제스처(로터 제스처(566)) 때문이다.
UI(500AA; 도 5aa)는 로터 제스처를 사용하는 다른 예시적인 실시예를 도시한다. 상술한 바와 같이, 접근성 사용자 인터페이스 컨텍스트 내 로터 제스처는 옵션 컨트롤의 값을 변경하는 데 뿐만 아니라 텍스트 및 웹페이지에 대한 네비게이션 옵션들을 설정하는 데 사용될 수 있다(예를 들어, 표 2). UI(500AA)에서, 언어 선택 사용자 인터페이스 요소(570)가 선택되었고(도시 생략), 이에 응답하여, 언어 선택자 사용자 인터페이스 요소(572)가 디스플레이된다. 요소(572)는 다수의 언어 옵션(예를 들면, 영어(572-1), 스페인어(572-2), 프랑스어(572-3) 및 이탈리아어(572-4)를 포함한다. 접근성 커서(502)는 언어 옵션 영어(572-1)에 있다.
로터 제스처(574)는 손잡이 또는 로터를 돌리는 것을 시뮬레이트하는, 중앙 포인트 주변을 터치-감지형 표면에서 회전하는(574-3 및 574-4) 제1 손가락 접촉(574-1) 및 제2 손가락 접촉(574-2)을 포함한다.
UI(500AA)에 보이지는 않지만, 로터 제스처(574)를 검출하는 것에 응답하여 전자 장치는 언어 선택자 사용자 인터페이스 요소(572) 상의 언어 옵션을 변경한다. 현재 선택된 언어 타입에 관한 접근성 정보는 또한 로터 제스처(574)를 검출하는 것에 응답하여 방출된다. 여기서, 접근성 정보는 현재 언어 설정을 사용자에게 가리킨다(예를 들면, 발음되는 출력이 "영어" 또는 "스페인어" 또는 "프랑스어"라고 말함).
UI(500BB; 도 5bb)에서, 하나 이상의 로터 제스처(574)의 결과로서 언어 선택자 사용자 인터페이스 요소(572) 상의 언어 옵션 프랑스어(572-3)가 선택되었다. 접근성 커서(502) 또한 언어 옵션 프랑스어(572-3)에 위치한다.
UI(500CC; 도 5cc)는 언어 선택자 사용자 인터페이스 요소(572) 상의 프랑스어 옵션 프랑스어(572-3)가 선택된 것을 반영하고, 따라서 웹페이지에 디스플레이되는 언어는 영어에서 프랑스어로 변경된다.
UI(500DD; 도 5dd)는 몇몇 실시예의 경우 접근성 사용자 인터페이스에 사용되는 선택 기술을 도시한다(예를 들면, 표 1). 접근성 커서(502)는 언어 선택 사용자 인터페이스 요소(570) 상에 있다(여기에서는 언어가 프랑스어에 있음). 따라서, UI(500EE; 도 5ee)에 도시된 바와 같이, 터치-감지형 표면 상의 위치-독립적 단일-손가락 두번 누름 제스처(576)가 언어 선택자 사용자 인터페이스 요소(572)를 활성화할 것이다.
몇몇 실시예에서, 접근성 사용자 인터페이스에 사용되는 대안적인 선택 기술은 사용자가 활성화되기 원하는 사용자 인터페이스 요소에 접근성 커서(502)가 위치될 때 물리적 버튼(예를 들면, 홈 버튼(204))을 누르는(depress) 것을 포함한다. 예를 들면, 이들 실시예에서, UI(500EE; 도 5ee)에 도시된 바와 같이, 접근성 커서(502)가 언어 선택 사용자 인터페이스 요소(570)에 있을 때 홈 버튼(204)의 활성화는 언어 선택자 사용자 인터페이스 요소(572)를 활성화할 것이다.
스플리트
다중 손가락 제스처들
UI(500FF) 내지 UI(500GG)(각각 도 5ff-5gg)는, 몇몇 실시예에서, 접근성 사용자 인터페이스가 양 손 중 하나 또는 양 쪽의 두 개의 손가락의 사용을 도와 인터페이스에 제시된 사용자 인터페이스 요소들 사이를 네비게이트하여 이를 활성화시키는 것을 도시한다. UI(500FF)에서, 사용자 선택 제스처(578)는 텍스팅 애플리케이션 아이콘(141)에 있는 제1 접촉 포인트(578-1)로 시작한다. 이에 응답하여, 접근성 커서(502)가 텍스팅 애플리케이션 아이콘(141)에 위치되고 텍스팅 애플리케이션 아이콘(141)에 관한 접근성 정보가 방출된다(예를 들면, 발음되는 텍스트가 "텍스팅" 또는 "텍스팅 애플리케이션" 또는 "텍스팅을 선택하려면 누름"이라고 말함). 사용자 선택 제스처(578)가 터치-감지형 표면을 가로질러 이동하기(578-2) 시작함에 따라, 현재 포커스가 다른 사용자 인터페이스 요소로 이동한다. UI(500FF)의 예시에서, 사용자 선택 제스처(578)가 주식 애플리케이션 아이콘(149-2)을 가로질러 이동하여서(578-2), 사용자 선택 제스처(578)가 위를 이동할 때 현재 포커스는 주식 애플리케이션 아이콘(149-2)에 있는 것으로 식별되고, 주식 애플리케이션 아이콘(149-2)에 관한 접근성 정보가 방출된다.
UI(500GG)는 사용자 선택 제스처의 접촉 포인트가 사전 애플리케이션 아이콘(149-5)으로 이동했음(578-3)을 도시한다. 이에 응답하여, 현재 포커스 및 접근성 커서(502)는 사전 애플리케이션 아이콘(149-5)에 위치되고, 사전 애플리케이션 아이콘(149-5)에 관한 접근성 정보가 방출된다(예를 들면, 발음되는 텍스트가 "사전" 또는 "사전 애플리케이션" 또는 "사전을 선택하려면 누름"이라고 말함). 이 포인트에서, 제1 손가락의 접촉 포인트(578-3)가 여전히 사전 애플리케이션 아이콘(149-5)에 해당하는 위치에 있는 동안에 터치-감지형 표면 상의 제2 손가락에 의한 누름(578-4)에 응답하여, 사전 애플리케이션이 시작된다.
접근성 인터페이스 내 스플리트 다중-손가락 제스처는 또한 효과적이며 많은 다른 컨텍스트에서 응용가능하다(예를 들면, 전화전호 입력 키패드를 비롯한 키보드 또는 키패드를 통해 빠르게 네비게이션하여 그로부터 키들을 선택하기; 웹페이지 또는 애플리케이션 소프트웨어 프로그램 상에서 사용자 인터페이스 요소들을 검색하여 활성화하기; 및 미디어 내에서 타임스탬프 위치를 찾음으로써 오디오/비디오 파일들을 스크럽한 후 컨트롤을 활성화하기 위해 누르기). 스플리트 누름은 또한 동일 키의 반복적인 활성화를 돕는다. 예를 들면, 단어를 삭제하기 위해, 사용자는 하나의 손가락으로는 삭제 키를 찾을 수 있고, 그런 후에 삭제 버튼을 반복적으로 활성화하여 여러 문자를 빠르게 삭제하기 위해 다른 손가락으로 터치-감지형 표면을 반복적으로 누를 수 있다.
줌
모드
낮은 시력, 교정되지 않은 근시, 노안, 또는 확대된 디스플레이를 봐야할 다른 이유가 있는 사람들은 줌 모드를 사용할 수 있다. 줌 접근성 모드는 사용자에게 임의의 애플리케이션 또는 사용자 인터페이스의 전체 스크린을 확대하도록 허용하여 사용자가 디스플레이에 무엇이 있는지 보게끔 돕는다. 몇몇 실시예에서, 사용자 인터페이스 제스처 오버랩 때문에 줌 모드는 음성 모드(voice over mode)와 동시에 사용되지 않는다. 다르게는, 상이한 제스처들 설정들이 음성 모드 및 줌 모드와 함께 사용될 수 있어서 양 쪽 접근성 모드들 중 일부 또는 전부가 동시에 사용될 수 있다.
UI(500HH; 도 5hh) 및 표 3은 줌 모드를 위한 예시적인 제스처를 설명한다.
표 3: 예시적인 줌
모드
접근성 제스처
검출된 제스처 | 검출된 제스처에 응답 |
터지-감지형 표면 상에 세-손가락 두번 누름 | 사용자 인터페이스 요소들의 줌 인된/확대된 디스플레이와 보통/확대되지 않은 디스플레이 사이를 토글 |
터치-감지형 표면 상에 세-손가락 이동 | 디스플레이된 사용자 인터페이스의 컨텐츠를 패닝/이동 |
터치-감지형 표면의 에지 또는 "거터(gutter)"에서 (손가락 두 개를 떼어냄으로서) 한-손가락 접촉/이동으로 감소되는 세-손가락 접촉/이동 | 디스플레이된 사용자 인터페이스의 컨텐츠를 터치-감지형 표면의 터치된 에지로부터 멀어지는 방향으로 스크롤/패닝/이동 |
터치-감지형 표면 상에서 세-손가락 두번 누름, 여기서 제2 누름은 터치-감지형 표면과 접촉한 채로 남아있어서 그 후 원하는 줌 레벨에 도달할 때 까지 터치-감지형 표면의 꼭대기를 향해 이동함 | 디스플레이된 사용자 인터페이스 요소들의 줌/확대 레벨을 증가시킴 |
터치-감지형 표면 상에 세-손가락 두번 누름, 여기서 제2 누름은 터치-감지형 표면과 접촉한 상태로 남아 있어서 그 후 원하는 줌 레벨에 도달할 때 까지 터치-감지형 표면의 하부를 향해 이동함 | 디스플레이된 사용자 인터페이스 요소들의 줌/확대 레벨을 감소시킴 |
표 3에서 접근성 제스처들은 단지 예시적이다. 몇몇 실시예서, 반대 제스처들(예를 들면, 상향 제스처 대 대응하는 하향 제스처)에 대한 응답이 표 3에 나타난 것들로부터 반대가 될 수 있다. 몇몇 실시예들에서, 반대 제스처들에 대한 응답은 사용자 구성가능하다(예를 들면, 설정들 또는 옵션 메뉴를 통함).
표 3에 리스팅된 제스처들 및 대응 사용자 인터페이스 동작에 관련하여, UI(500II; 도 5ii)는 사용자 인터페이스에서 줌인하여 사용자 인터페이스 요소들이 확대되도록 하기 위해 터치-감지형 표면 상에서의 위치-독립적인 세-손가락 두번 누름 제스처(580)(즉, 개별 접촉들(580-1, 580-2 및 580-3)이 세-손가락 두번 누름을 나타냄)의 사용을 도시한다.
UI(500JJ; 도 5jj)는 세-손가락 두번 누름 제스처(580)에 응답하여, 접근성 사용자 인터페이스가 사용자 인터페이스를 확대하여서 애플리케이션 아이콘들 주식(149-2), 음성 메모(142), 알람(149-4) 및 사전(149-5)이 더 크고, 사용자 인터페이스의 나머지 부분은 이제 사용자 인터페이스의 디스플레이된 부분 내에 있지 않은 것을 도시한다.
UI(500JJ)는 또한 사용자 인터페이스의 컨텐츠를 패닝(즉, 이동)하는 터치-감지형 표면 상의 세-손가락 이동 제스처(582)가 디스플레이된 것을 도시한다. 특히, 세-손가락 이동 제스처(582)는 세 접촉 포인트들(각각, 582-4, 582-5, 및 582-6)의 터치-감지형 표면 상의 이동이 뒤따르는 제1, 제2, 및 제3 초기 접촉 포인트들(각각, 582-1, 582-2, 및 582-3)을 포함한다. 이 예시에서, 세 접촉 포인트는 터치-감지형 표면의 하부를 향해 아래로 갔는 점에 유의해야 한다.
UI(500KK; 도 5kk)는 세-손가락 이동 제스처(582)에 응답하여, 접근성 사용자 인터페이스가 패닝하여서 사용자 인터페이스 애플리케이션 아이콘들 주식(149-2), 음성 메모(142), 알람(149-4) 및 사전(149-5) 대신에, 사용자 인터페이스 애플리케이션 아이콘들 사진(144) 및 카메라(143)가 이제 디스플레이의 상부에서 보이고, 디스플레이의 상부에 있었던 주식(149-2), 및 음성 메모(142)는 이제 디스플레이의 하부에 있는 것을 도시한다.
UI(500KK)는 또한, 사용자 인터페이스를 더 확대하기 위한 세-손가락 줌 제스처(584)의 사용을 도시한다. 여기서, 제스처(584)는 3개의 초기 접촉 포인트들(584-1, 584-2 및 584-3)을 갖는 터치-감지형 표면 상에서의 세-손가락 두번 누름을 포함한다. 제2 누름은 터치-감지형 표면에 접촉한 채로 남아있어서, 그 후 원하는 줌 레벨에 도달할 때 까지 터치-감지형 표면의 꼭대기를 향해 이동(584-4, 584-5 및 584-6)한다.
UI(500LL; 도 5ll)은 세-손가락 줌 제스처(584) 후에, 사용자 인터페이스 애플리케이션 아이콘 음성 메모(142)가 더 확대되어 이제 디스플레이의 대부분을 차지하는 것을 도시한다.
UI(500LL; 도 5ll)은 또한 사용자 인터페이스 주변을 이동하기 위한 세-손가락 패닝 제스처(586)의 사용을 도시한다. 특히, 세-손가락 패닝 제스처(586)는 세 접촉 포인트들(각각, 586-4, 586-5, 및 586-6)의 터치-감지형 표면 상의 이동이 뒤따르는 제1, 제2, 및 제3 초기 접촉 포인트들(각각, 586-1, 586-2, 및 586-3)을 포함한다. 장치는 제스처(586)의 이동에 따라 디스플레이된 사용자 인터페이스를 움직인다. 이 예시에서, 이동은 크게는 한 방향(즉, 수직 방향)에 있지만, 패닝 제스처 이동이 통상적으로 터치 감지형 표면 상에서 완벽한 수직이나 완벽한 수평은 아니기 때문에 세-손가락 패닝 제스처들은 통상 인터페이스 내에서 2-차원 스크롤링이 된다는 점에 유의해야 한다. 몇몇 실시예에서, 세-손가락 패닝 제스처의 떼어냄을 검출한 것에 응답하여, 장치는 세-손가락 패닝 제스처 중 떼어낸 곳에서 또는 그 근처에서의 손가락들의 속도에 따라 감소하는 속도로 디스플레이된 사용자 인터페이스를 패닝하는 것을 계속한다.
UI(500MM; 도 5mm)은 세-손가락 패닝 제스처(586; 도 5ll)에 응답하여, 사전 애플리케이션 아이콘(149-5)이 이제 디스플레이의 대부분을 차지하는 것을 도시한다.
UI(500MM)은 사용자 인터페이스를 축소하기 위한 세-손가락 줌 아웃 제스처(588)의 사용을 도시한다. 제스처(588)는 3개의 초기 접촉 포인트들(588-1, 588-2 및 588-3)을 갖는 터치-감지형 표면 상에서의 세-손가락 두번 누름을 포함한다. 제2 누름은 터치-감지형 표면에 접촉한 채로 남아있어서, 그 후 원하는 줌 레벨에 도달할 때까지 터치-감지형 표면의 하부를 향해 이동(588-4, 588-5 및 588-6)한다.
UI(500NN; 도 5nn)는 이 예시에서, 세-손가락 줌아웃 제스처(588)에 의해 선택된 확대 레벨이 디스플레이를 1.0x 확대 팩터까지 되돌려서, 사용자 인터페이스 디스플레이가 줌 모드를 사용하지 전과 동일한 확대/줌 상태에 있게 하는 것을 도시한다.
몇몇 실시예에서, 세-손가락 패닝 제스처(예를 들면, 586; 도 5i)의 인지 후에, 세 손가락 중 두 개까지 터치-감지형 표면과의 접촉을 상실한 시각에 매끄러운 패닝을 허용하는 허용하는 관용(forgiveness) 기술이 사용된다. 관용 기술은 패닝 제스처 동안에 임의의 주어진 손가락과의 접촉을 상실하고 다시 얻는 동시에, 세 손개락 중 하나가 짧은, 미리 정해진 시간 내에 터치-감지형 표면과 접촉을 다시 얻는 한은 매끄러운 패닝을 계속 제공하는 기능을 포함한다. 요약하면, 사용자가 세 손가락으로 패닝 제스처를 시작한 한은, 사용자는 단 하나의 손가락으로도 패닝을 할 수 있을 뿐만 아니라 패닝을 다이렉트하는 데 어떤 손가락이 사용될 지를 변경할 수도 있다. 사용자들이 세 손가락 전부가 터치-감지형 표면과 하나의 결합된 이벤트로 동시에 접촉하도록 함으로써 세-손가락 제스처를 수행하는 일이 드물기 때문에 이 기술은 유리하다. 유사하게는, 사용자들이 동시에 터치-감지형 표면에서 세 개 손가락 전부를 떼어내는 일이 드물다. 따라서, 이러한 기술은 세-손가락 패닝 제스처가 일어나는 것을 판정하고, 사용자가 세-손가락 패닝 제스처를 계속 수행하고 있을 때를 매우 잘 다루면서도, 사용자는 세 손가락 전부가 터치-감지형 표면과 접촉한 채로 유지하지는 않는다.
몇몇 실시예에서, 디스플레이 및 터치-감지형 표면을 갖는 전자 장치는 세-손가락 제스처가 일어난 때를 검출하기 위해 터치-감지형 표면 상에서의 손가락 터치 이벤트들을 저장하는 프로그램 명령어를 실행한다. 세-손가락 제스처의 세 접촉 포인트 보다 적게 검출되면, 일어나는 터치 이벤트가 무엇이든 간에 이들이 수신된 순서로 처리된다. 터치-감지형 표면 상에서 적어도 세 개의 동시적인 초기 접촉 포인트를 검출한 것에 응답하여, 장치는 디스플레이 상에서 세 개의 초기 접촉 포인트 중 하나를 제1 우선 접촉으로서 할당한다. 그런 후에 장치는 제1 우선 접촉이 터치-감지형 표면에 접촉한 채로 남아있는 지를 판정하고, 그 다음 장치는 제1 우선 접촉의 움직임을 검출한다. 제1 우선 접촉의 움직임을 검출한 것에 응답하여, 장치는 제1 우선 접촉의 움직임에 따라 복수의 사용자 인터페이스 요소를 디스플레이 상에서 패닝한다. 그러면, 장치가 제1 우선 접촉이 터치-감지형 표면과의 접촉을 잃었다고 검출하면 그 때에, 장치는 터치-감지형 표면 상의 적어도 세 개의 접촉 포인트중에서 선택된 제2 우선 접촉을 할당하는데, 제2 우선 접촉은 터치-감지형 표면과 계속 활성 접촉된 상태이다(또는 제2 우선 접촉이 터치-감지형 표면과 다시 한번 활성 접촉하고 있다). 또한, 매끄러운 패닝을 용이하게 하기 위해, 장치는 제1 우선 접촉과 제2 우선 접촉 사이에서 계산 및 오프셋한다. 이 포인트에서, 장치가 제2 우선 접촉의 움직임을 일단 검출하면, 장치는 제2 우선 접촉의 움직임에 따라 디스플레이상에서 복수의 사용자 인터페이스 요소를 패닝하고 제2 우선 접촉의 움직임을 검출한 것에 응답하여 오프셋한다.
(1) 적어도 하나의 손가락이 터치-감지형 표면과 항상 접촉하고 있거나; (2) 터치-감지형 표면상에 적어도 하나의 접촉을 재건하는 것과 터치-감지형 표면으로부터 세 개의 접촉 포인트 중 마지막이 제거되는 시각 사이가 미리 정해진 지연을 초과하지 않는 한, 오래된 우선 접촉이 상살될 때에 우선 접촉을 재할당하는 것, 오래된 우선 접촉과 재할당된 우선 접촉 사이의 오프셋을 계산하는 것, 및 새로운 재할당된 우선 접촉의 움직임과 계산된 오프셋에 따라 디스플레이 상에서 사용자 인터페이스를 이동시키는 것의 시퀀스가 사용자가 선택한 횟수 만큼 반복되어 패닝을 유지한다. 미리정해진 지연은 몇몇 실시예에서 1초 미만일 수 있다; 대안적 실시예에서는, 미리정해진 지연이 0과 0.35초 사이일 수 있거나, 미리정해진 지연이 0.01초와 0.55초 사이일 수 있다.
비록 세 손가락 접촉이 논의되었으나, 이 기술은 또한 적어도 두 개의 손가락을 사용하는 임의의 손가락 패닝 또는 드래깅 제스처에 쉽게 응용가능하다는 것이 당업자에게 명백할 것이다. 또한, 오래된 우선 접촉으로부터 새로운 우선 접촉으로의 변경은 원래의 손가락 접촉들 중에서 선택된 하나뿐만 아니라 임의의 손가락 접촉을 포함할 수 있다.
몇몇 실시예에서, 접근성 사용자 인터페이스는 다중-손가락 제스처에 응답하여 디스플레이의 에지 또는 코너에서의 포인트를 포함한 터치 스크린 디스플레이 상의 임의의 포인트 주변을 확대하는 기능을 제공한다.
UI(500OO) 내지 UI(500PP)(각각 도 5oo-5pp)는 터치 스크린(112) 상의 여러 위치에서 세 손가락 접촉(591-1a, 591-1b 및 591-1c)을 갖는 다중-손가락 제스처(591)를 도시한다. 따라서, 동시적 다중-손가락 제스처(591)에 대한 경계 박스(592)가 결정된다.
접근성 사용자 인터페이스는 터치 스크린(112) 상에서 사용자 인터페이스 내 컨텐츠(예를 들면, 그래픽)를 경계 박스 내 포인트(593) 주변에서 제1 배율보다 큰 제2 배율로 확대한다. 경계 박스가 터치 스크린 디스플레이의 중앙에 위치할 때 경계 박스 내 포인트는 경계 박스 내 디폴트 위치(예를 들면, 중심점(centroid))에 있다. 예를 들면, 경계 박스(592-1)가 터치 스크린(112)의 중앙에 있거나 그 근방에 있기 때문에 포인트(593-1a)는 경계 박스의 중앙에 있다.
UI(500OO)의 다른 예시적인 경계 박스들에서 보이듯이, 터치 스크린(112) 상의 상이한 위치들에 있는 다중-손가락 제스처의 위치선정은 대응하는 위치 내 경계 박스(592)를 결정하고, 경계 박스에서 각각의 대응 포인트(593)가 경계 박스의 디폴트 위치로부터 경계 박스의 각 에지를 향해, 경계 박스가 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응 에지를 향해 변위되는 거리가 증가함에 따라 증가하는 양 만큼 변위된다. 예를 들면, 경계 박스(592-2)가 터치 스크린(112)의 오른쪽 에지에 가까워지면서, 포인트(593-1b)도 경계 박스의 오른쪽 에지에 가까워진다. 유사하게는, 경계 박스(592-4)가 터치 스크린(112)의 하부 에지에 가까워지면서, 포인트(593-1d)도 경계 박스의 하부 에지에 가까워진다.
경계 박스들(592-3 및 592-5)은 각각 터치 스크린(112)의 오른쪽 및 하부 에지들에 위치되므로, 포인드들(593-1c 및 593-1e)은 각각 경계 박스들(592-3 및 592-5)의 오른쪽 및 하부 에지로 변위된다.
따라서, 몇몇 실시예에서, 접근성 사용자 인터페이스는 경계 박스 내 포인트를, 그 경계 박스의 각각의 에지를 향해, 경계 박스가 터치 스크린 디스플레이의 중앙으로부터 터치 스크린 디스플레이의 대응 에지를 향해 변위되는 거리에 비례하는 양 만큼 변위시킬 수 있다. 또한, 접근성 사용자 인터페이스는 단 하나의 축 대신에 두 개의 방향 축에서 경계 박스들 내 포인트들을 변위시킬 수 있다.
UI(500PP)는 두 개의 방향 축에서 경계 박스들 내 포인트들을 변위시키는 예시적인 경계 박스를 도시한다. 예시적인 경계 박스(592-6)는 터치 스크린(112)의 중앙에 있는 경계 박스의 위치 때문에 경계 박스의 중앙으로부터 변위되지 않은 포인트(593-1f)를 갖는다. 그러나, 경계 박스(592-7)는 경계 박스(592-7)의 디폴트 위치(예를 들어, 중심)로부터 변위되는 점(593-1g)을 갖는다. 경계 박스(592-7)는 터치 스크린(112)의 상부-우측 코너에 더 가깝게 위치된다. 따라서, 경계 박스(592-7) 내의 점(593-1g)은, 터치 스크린(112)의 우측 및 상부 에지를 향하여 터치 스크린 디스플레이의 중심으로부터 경계 박스가 변위되는 거리에 비례하는 양만큼 경계 박스(592-7)의 우측 및 상부 에지를 향하여 경계 박스(592-7)의 디폴트 위치로부터 변위될 수 있다.
경계 박스(592-8)는 경계 박스(592-8)의 중심으로부터 변위되는 점(593-1h)을 갖는다. 경계 박스(592-8)는 터치 스크린(112)의 상부-우측 코너에 배치된다. 따라서, 경계 박스(592-8) 내의 점(593-1h)은 경계 박스(592-8)의 디폴트 위치로부터 경계 박스(592-8)의 우측 및 상부 에지로 변위된다. 따라서, 접근성 사용자 인터페이스는 디스플레이의 에지들 또는 코너들에서의 점들을 포함하여 다중 손가락 제스처에 응답하여 터치 스크린 디스플레이 상의 임의의 점에 대하여 확대하는 능력을 제공한다.
몇몇 실시예에 있어서, 접근성 사용자 인터페이스는 다중 손가락 제스처들 및 단일 손가락 제스처들 모두를 이용하여 스크롤하는 능력을 제공한다. UI(500KK)(도 5kk)를 참조하면, 이 도면은, 3개의 손가락 이동 제스처(582)(도 5jj)에 응답하여, 사용자 인터페이스 애플리케이션 아이콘들인 주식(149-2), 음성 메모(142), 알람(149-4) 및 사전(149-5)을 디스플레이하는 대신에, 사용자 인터페이스 애플리케이션 아이콘들인 사진(144) 및 카메라(143)가 이제 디스플레이의 상부에 가시화될 수 있으며, 주식(149-2) 및 음성 메모(142)(이들은 디스플레이의 상부에 있었음)가 이제 디스플레이의 하부에 있도록 접근성 사용자 인터페이스가 스크롤하는 것을 도시한다.
UI(500QQ)(도 5qq)는, 몇몇 실시예에 있어서, 장치가 복수의 동시 손가락 접촉들 중 하나를 제외한 모든 동시 손가락 접촉의 리프트 오프를 검출한 후에, 사용자 인터페이스는, 단일의 남아있는 손가락 접촉(597)이 터치 스크린(112)의 미리 정해진 중심부(598)에 위치하는 경우에(예를 들어, 접촉(597-1), 도 5qq) 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단할 것임을 도시한다. 미리 정해진 보더부(599)는 미리 정해진 중심부(598)의 외부의 터치 스크린(112)의 영역이다. 예시적인 목적으로, 미리 정해진 보더부(599)는 해시 마크들로 도시되어 있다.
또한, UI(500QQ)는 2개의 다른 위치들에서의 예시적인 단일의 남아있는 손가락 접촉(597)을 도시한다. 단일의 남아있는 손가락 접촉(597-2)은 미리 정해진 보더부(599)의 내부 에지(599-1)에 근접하여 위치하는데, 이는 단일의 남아있는 손가락 접촉(597-2)에 가장 근접한 터치 스크린의 에지로부터 멀리 사용자 인터페이스 내의 콘텐츠가 스크롤되게 한다(스크롤은 도면에는 도시되지 않음). 즉, 단일의 남아있는 손가락 접촉이 스크린의 좌측 에지에 가장 근접한 경우, 사용자 인터페이스 내의 콘텐츠는 스크린의 우측 에지를 향하여 스크롤될 것인데, 이는 터치 스크린 디스플레이의 에지의 좌측 에지를 넘어 있었던 사용자 인터페이스 콘텐츠를 드러낸다.
단일의 남아있는 손가락 접촉(597-3)은 미리 정해진 보더부(599)의 외부 에지(599-2)에 근접하여 위치하는데, 이는 또한 단일의 남아있는 손가락 접촉(597-3)에 가장 근접한 터치 스크린의 에지로부터 멀리 사용자 인터페이스 내의 콘텐츠가 스크롤되게 할 것이다(스크롤은 도면에는 도시되지 않음).
몇몇 실시예에 있어서, 미리 정해진 경계부(599) 내에서 597-2나 597-3과 같은 단일의 남아있는 손가락 접촉을 검출하는 경우에 이용된 스크롤 속도는 단일의 남아있는 손가락 접촉에 가장 근접한 터치 스크린(112)의 에지와 단일의 남아있는 손가락 접촉 사이의 거리에 역으로 대응한다. 따라서, 단일의 남아있는 손가락 접촉(597-2)은, 단일의 남아있는 손가락 접촉(597-3)이 사용자 인터페이스 내의 콘텐츠를 스크롤하는 것보다 느리게 사용자 인터페이스 내의 콘텐츠를 스크롤할 것이다.
따라서, 장치는 동일한 개수의 동시 손가락들(예를 들어, 표 3에서의 3개의 손가락)에 의한 다중 손가락 제스처들을 이용하여, 줌 관련 액션들을 개시할 수 있지만, 또한 단일 손가락 제스처들(이는 디스플레이를 보다 적게 가림)이 줌 모드에서 다중 손가락 제스처들과 심리스하게 이용될 수 있게 한다.
터치 감지형 표면에 대한 사용자 인터페이스 컨테이너들의
매핑
도 6a 내지 도 6t는 몇몇 실시예에 따른 터치 감지형 표면에 대해 각각의 사용자 인터페이스 컨테이너들을 매핑하는 접근성 사용자 인터페이스들을 도시한다. 컨테이너 매핑은 시각적 복합 디스플레이들(visually complex displays)(예를 들어, 다중 윈도우 디스플레이들)을 통한 네비게이션을 위한 효율적인 접근성 방법의 일부이다. 매핑된 터치 감지형 표면이 전체 디스플레이가 아니라 단지 현재 선택된 컨테이너만을 표현하기 때문에, 사용자는 우연히 디스플레이의 다른 영역으로 빗나갈 수 없다.
아래에 예시된 바와 같이, 사용자 인터페이스 컨테이너는 디스플레이 상의 사용자 인터페이스의 개별적인 미리 정해진 영역이다. 사용자 인터페이스 컨테이너들은 사용자 인터페이스 요소들을 포함한다. 통상적으로, 컨테이너들은 애플리케이션이 설계되는 시점에 애플리케이션 개발자에 의해 정의된다. 접근성 사용자 인터페이스에서 컨테이너들을 이용하기 위해서, 개발자는 특정의 그래픽 뷰들을 함께 전체 뷰로 구성함으로써 사용자 인터페이스 컨테이너들의 그룹들을 생성한다. 애플리케이션 및 접근성 사용자 인터페이스는 함께 이용되어, 사용자가 컨테이너들의 배열을 시각적으로 볼 수 없을 수 있는 경우에도, 사용자가 논리적인 이해가능한 방식으로 사용자 인터페이스 컨테이너들의 그룹들 내에서 네비게이트할 수 있게 한다. 사용자 인터페이스 컨테이너들은 보다 상세하게 후술되는 바와 같이 미리 정해진 계층적 방식으로 구성될 수 있다.
몇몇 실시예에 있어서, 컨테이너들을 갖는 접근성 사용자 인터페이스들은 데스크톱 컴퓨터 또는 랩톱 컴퓨터와 같이 디스플레이 및 터치 감지형 표면(예를 들어, 트랙 패드)을 갖는 전자 장치 상에서 동작한다. 몇몇 실시예에 있어서, 컨테이너들을 갖는 접근성 사용자 인터페이스들은 터치 스크린 디스플레이를 갖는 전자 장치 상에서 동작한다. 몇몇 실시예에 있어서, 터치 스크린 디스플레이는 하나 이상의 부가적인 터치 감지형 표면들 또는 하나 이상의 부가적인 디스플레이들과 함께 이용될 수 있다. 몇몇 실시예에 있어서, 컨테이너들을 갖는 접근성 사용자 인터페이스들은 휴대용 다기능 장치들(예를 들어, 100, 도 1a) 또는 다른 전자 장치들(예를 들어, 300, 도 3) 상에서 이용된다.
도 6a 내지 도 6t에 있어서, 디스플레이와는 별도의 터치 감지형 표면(603)(예를 들어, 트랙 패드) 상에 제스처들이 도시되어 있다. 이들 도면에서 별도의 터치 감지형 표면(603) 상에 예시적인 제스처들이 예시되어 있다는 것은, 본 명세서에 개시된 방법들을 실시하기 위해서 제스처들이 트랙 패드(또는 다른 별도의 터치 감지형 표면) 상에서 수행되는 것을 요구하지는 않는다. 예를 들어, 몇몇 실시예에 있어서, 제스처들은 대신에 터치 스크린 상에서 수행될 수 있다. 이들 실시예에 있어서, 선택된 컨테이너는, 터치 스크린이 선택된 컨테이너를 비롯한 다수의 컨테이너들을 계속해서 디스플레이하는 동안에 전체 터치 스크린 표면에 촉각적으로 매핑될 수 있다. 도 6a 내지 도 6t에서의 접근성 사용자 인터페이스들은 도 10a 내지 도 10c와 관련하여 후술되는 프로세스들을 예시하는데 이용된다.
표 4는 컨테이너 네비게이션 및 활성화를 위한 예시적인 접근성 제스처들을 기술한다. 이들 제스처들은 통상적으로 손가락 제스처들이다. 몇몇 실시예에 있어서, 컨테이너들에 대한 접근성 제스처들은 손가락 제스처들과 함께 또는 이러한 손가락 제스처들 대신에 다른 입력들(예를 들어, 변경자 키를 누르고 있는 것과 같은 키보드 입력들, 또는 마우스 입력들)을 더 포함할 수 있다.
네비게이션 및 활성화 | |
검출된 제스처 | 검출된 제스처에 대한 응답 |
터치 감지형 표면 상의 두 손가락의 우측 스와이프. | 현재의 포커스가 설정되는 곳과 연관된 다음의 하위-레벨 컨테이너를 선택한다. |
터치 감지형 표면 상의 두 손가락의 좌측 스와이프. | 현재의 포커스가 최상위 레벨에 있을 때까지, 현재의 포커스가 설정되는 곳의 위에서 다음의 상위-레벨 컨테이너를 선택한다. |
터치 감지형 표면 상의 단일 손가락의 이동/드래깅. | 터치 감지형 표면 상의 현재의 컨테이너의 매핑 및 터치 감지형 표면 상의 단일 손가락의 현재의 위치에 따라 현재의 컨테이너에서의 현재의 포커스를 이동시킨다. |
단일 손가락이 이동하는 네비게이션 제스처를 수행하는 동안의 키(예를 들어, 시프트 키) 누름. | 단일 손가락이 터치 감지형 표면 상에서 이동함에 따라, 현재의 컨테이너 내의 수평 또는 수직 축을 따라 현재의 포커스를 이동시킨다. |
두 손가락의 더블 탭. | 두 손가락의 더블 탭이 발생한 터치 감지형 표면 상의 영역과 연관되는 지정된 접근가능한 동작을 활성화한다(예를 들어, UI(600L)에 도시된 애플리케이션 선택자를 활성화함). |
터치 감지형 표면 상의 지그재그 모션(즉, 지그재그 모션 중에 터치 감지형 표면으로부터의 손가락 접촉의 리프트 없이, 단일 손가락을 좌측에서 우측으로 그리고 좌측으로, 또는 우측에서 좌측으로 그리고 우측으로 이동시키는 것) | 현재의 애플리케이션 또는 사용자 인터페이스에서 모달 상태를 종료한다(예를 들어, 오픈되어 있는 메뉴 종료; 컴퓨터 시스템에 의해 디스플레이된 경보 종료; 대화 윈도우 종료). |
또한, 표 1 및 표 2와 관련하여 전술한 네비게이션 제스처들(예를 들어, 플릭 네비게이션, 설정들을 위한 로터 컨트롤(rotor control) 등)도 또한 컨테이너 네비게이션 및 활성화에 적용가능하다.
표 4에서의 접근성 제스처들은 단지 예시적이다. 몇몇 실시예에 있어서, 현재의 포커스가 설정되는 곳의 아래에서 다음의 하위 레벨 컨테이너를 선택하기 위해서 (2개의 손가락의 우측 스와이프 제스처(two-finger swipe right gesture) 대신에) 2개의 손가락의 디핀치 제스처(two-finger depinch gesture)가 이용된다. 몇몇 실시예에 있어서, 현재의 포커스가 설정되는 곳의 위에서 다음의 상위 레벨 컨테이너를 선택하기 위해서 (2개의 손가락의 좌측 스와이프 제스처 대신에) 2개의 손가락의 핀치 제스처가 이용된다. 몇몇 실시예에 있어서, 반대 제스처들(예를 들어, 우향 제스처 대 대응하는 좌향 제스처, 또는 상향 제스처 대 대응하는 하향 제스처)에 대한 응답들은 표 4에 나타낸 것들과 반대일 수 있다. 예를 들어, 2개의 손가락의 우측 스와이프 제스처가 다음의 상위 레벨 컨테이너를 선택하는데 이용될 수 있으며, 2개의 손가락의 좌측 스와이프 제스처가 다음의 하위 레벨 컨테이너를 선택하는데 이용될 수 있다. 몇몇 실시예에 있어서, 반대 제스처들에 대한 응답들은 예를 들어 설정들 또는 옵션 메뉴를 통해 사용자 구성가능하다.
도 6a는 터치 감지형 표면(603)에 대한 사용자 인터페이스 컨테이너들의 3가지 예시적인 매핑들을 도시한다. 몇몇 실시예에 있어서, 터치 감지형 표면(603)은 장치(300)(도 3) 상의 터치 패드(355)이다.
제1 예(도 6a-1)에 있어서, 사용자 인터페이스 컨테이너(604)는 터치 감지형 표면(603)에 비례하여 매핑된다. 사용자 인터페이스 컨테이너(604)는 복수의 사용자 인터페이스 요소들(예를 들어, 604-1, 604-2 등)을 포함한다. 사용자 인터페이스 컨테이너(604) 내의 예시적인 사용자 인터페이스 요소들은 애플리케이션 아이콘들, 웹 링크들, 파일 명칭들, 파일 리스팅들, 파일 아이콘들, 그래픽 사용자 인터페이스 컨트롤들, 메뉴 바들, 스프레드시트들, 프리젠테이션 파일들이나 슬라이드들, 리스트들, 표제들, 텍스트 필드들, 텍스트 영역들, 패스워드 필드들, 슬라이더들, 스플리터들, 디스클로저 트라이앵글들(disclosure triangles) 및/또는 표들을 포함할 수 있지만, 이에 제한되지는 않는다.
제2 예(도 6a-2)에 있어서, 훨씬 더 짧지만 더 넓은 메뉴 바에 대한 사용자 인터페이스 컨테이너(608)가 터치 감지형 표면(603)에 비례하여 매핑된다. 컨테이너(608)는 드롭다운 메뉴 바에 대한 사용자 인터페이스 요소들, 즉 "File", "Edit" 등을 포함한다. 도 6a-2에서의 비례 매핑은 터치 감지형 표면(603) 상의 이들 사용자 인터페이스 요소들을 수직으로 신장시킨다. 이러한 수직 신장은, 시력이 손상된 사용자가 주어진 사용자 인터페이스 요소에 대응하는 터치 감지형 표면(603) 상의 위치를 터치하는 것을 보다 용이하게 한다.
제3 예(도 6a-3)에 있어서, 애플리케이션 아이콘 인터페이스 컨테이너(610)는 터치 감지형 표면(603)에 비례하여 매핑된다. 애플리케이션 아이콘 인터페이스 컨테이너(610)는 애플리케이션 아이콘 사용자 인터페이스 요소들인 Phone(138), Mail(140), Browser(147) 및 Music(146)을 포함한다. 도 6a-2와 마찬가지로, 도 6a-3에서의 비례 매핑은 터치 감지형 표면(603) 상의 이들 사용자 인터페이스 요소들을 수직으로 신장시킨다. 이러한 수직 신장은, 시력이 손상된 사용자가 주어진 사용자 인터페이스 요소에 대응하는 터치 감지형 표면(603) 상의 위치를 터치하는 것을 보다 용이하게 한다.
UI(600B) 내지 UI(600G)(도 6b 내지 도 6g)는 사용자 인터페이스 컨테이너들의 계층적(내포형(nested)) 배열에서의 네비게이트를 위한 예시적인 접근성 사용자 인터페이스들을 도시한다.
UI(600B)(도 6b)를 참조하면, 윈도우(612)는 전체 사용자 인터페이스 요소(여기서는, "Window"로 명명된 윈도우)이다. 현재의 컨테이너 지시자(614-1)(예를 들어, 굵게 또는 다른 방식으로 시각적으로 강조된 보더)는 전체 사용자 인터페이스 요소 윈도우(612)가 현재 선택되어 있음을 식별하는데 이용된다. 몇몇 실시예에 있어서, 여기에 도시된 바와 같이, 현재의 컨테이너 지시자(614)는 윈도우와 같은 사용자 인터페이스 요소의 타이틀에 접할 수 있다. 몇몇 실시예에 있어서, 현재의 컨테이너 지시자는 현재의 컨테이너인 전체 사용자 인터페이스 요소에 접한다. 현재의 컨테이너가 윈도우인 경우, 현재의 컨테이너 지시자는 전체 윈도우에 접할 수 있다.
이 예에 있어서, 윈도우(612)는 터치 감지형 표면(603)에 비례하여 매핑되는데(615), 그 이유는 현재의 컨테이너가 전체 사용자 인터페이스 요소 윈도우(612)이기 때문이다.
사용자 인터페이스 컨테이너 선택 이벤트(616)(이 예에서는, 2개의 손가락의 스와이프 제스처)는 초기 접촉 점들(616-1 및 616-2) 및 그 다음의 이들 초기 접촉 점들의 이동(616-3 및 616-4)을 갖는다. 사용자 인터페이스 컨테이너 선택 이벤트(616)가 위치 독립적이라는 것에 유의한다. 이벤트(616)는 터치 감지형 표면(603) 상의 임의의 위치 및 각도에서 발생한다. 이에 반해, 주어진 컨테이너 내에서의 네비게이트 및 활성화를 위한 제스처들(예를 들어, 단일 손가락의 이동/드래깅 제스처들, 표 4)은 매핑된 터치 감지형 표면 상에서의 위치-의존적 제스처들이다.
UI(600C)(도 6c)는, 사용자 인터페이스 컨테이너 선택 이벤트(616)를 검출하는 것에 응답하여, 현재의 컨테이너 지시자(614-2)가 윈도우(612)의 내부 부분으로 위치를 변경하여, 현재의 컨테이너 지시자(614-2)에 의해 현재 윤곽 표시된 윈도우(612)의 이 부분이 현재 선택되는 컨테이너임을 반영한 것을 도시한다. 사용자 인터페이스 컨테이너 선택 이벤트(616)에 응답하여, 현재의 컨테이너 지시자(614-2)에 의해 윤곽 표시된 윈도우(612)의 내부 부분은 터치 감지형 표면(603)에 비례하여 매핑된다(620). 또한, 장치는, "컨테이너, 3개의 항목과 상호작용(interacting with container, three items)"이라고 말하는 것과 같이, 사용자 인터페이스 컨테이너 선택 이벤트(616)를 검출하는 것에 응답하여 현재 선택된 컨테이너와 연관된 접근성 정보를 출력할 수 있다.
이 예에 있어서, 현재의 컨테이너(현재의 컨테이너 지시자(614-2) 내의 윈도우(612)의 영역)는 선행 컨테이너(윈도우(612)) 내에 내포된다. 2개의 컨테이너들은 여기에 도시된 최외측 레벨에 윈도우(612)를 갖는 계층을 형성하며, 현재의 컨테이너 지시자(614-2) 내의 윈도우(612)의 영역은 계층에서 다음의 하위 레벨에 있다.
또한, UI(600C)는, 초기 접촉 점들(618-1 및 618-2) 및 그 다음의 이들 초기 접촉 점들의 이동(618-3 및 618-4)을 갖는 예시적인 사용자 인터페이스 컨테이너 선택 이벤트(618)(이 예에서는, 터치 감지형 표면(603) 상의 다른 2개의 손가락의 스와이프 제스처)를 도시한다. 사용자 인터페이스 컨테이너 선택 이벤트(618)의 방위가 사용자 인터페이스 컨테이너 선택 이벤트(616)와 상이한 각도에 있다는 것에 유의한다. 인터페이스 컨테이너 선택 이벤트(618)도 또한 위치 독립적이다.
UI(600D)(도 6d)는, 사용자 인터페이스 컨테이너 선택 이벤트(618)를 검출하는 것에 응답하여, 현재의 컨테이너 지시자(614-3)가 윈도우(612)의 새로운 내부 부분으로 위치를 변경하여, 현재의 컨테이너 지시자(614-3)에 의해 윤곽 표시된 윈도우(612)의 이 부분이 현재 선택되는 컨테이너임을 반영한 것을 도시한다. 따라서, 몇몇 실시예에 있어서, 사용자 인터페이스 컨테이너 선택 이벤트(616)와 상이한 각도에 있는 사용자 인터페이스 컨테이너 선택 이벤트(618)의 방위를 통해 증명되는 바와 같이, 사용자 인터페이스 컨테이너 선택 이벤트의 방위는 또한 관련이 없다.
사용자 인터페이스 컨테이너 선택 이벤트(618)에 응답하여, 현재의 컨테이너 지시자(614-3)에 의해 윤곽 표시된 윈도우(612)의 내부 부분은 터치 감지형 표면(603)에 비례하여 매핑된다(624). 또한, 장치는, "컨테이너, 2개의 항목들과 상호작용(interacting with container, two items)"이라고 말하는 것과 같이, 사용자 인터페이스 컨테이너 선택 이벤트(618)를 검출하는 것에 응답하여 현재 선택된 컨테이너와 연관된 접근성 정보를 출력할 수 있다.
이 예에 있어서, 지시자들(614-1, 614-2 및 614-3)에 대응하는 컨테이너들(즉, 윈도우(612), 현재의 컨테이너 지시자(614-2) 내의 윈도우(612)의 영역, 및 현재의 컨테이너 지시자(614-3) 내의 윈도우(612)의 영역)은 내포형 컨테이너들의 계층을 형성한다. 윈도우(612)는 제1 레벨에 있고, UI(600C)에서 현재의 컨테이너 지시자(614-2) 내에 도시된 윈도우(612)의 영역은 하위의 제2 레벨에 있으며, UI(600D)에서 현재의 컨테이너 지시자(614-3) 내의 윈도우(612)의 영역은 계층에서 더 하위의 제3 레벨에 있다.
또한, UI(600D)는, 초기 접촉 점들(622-1 및 622-2) 및 그 다음의 이들 초기 접촉 점들의 이동(622-3 및 622-4)을 갖는 예시적인 사용자 인터페이스 컨테이너 선택 이벤트(622)(이 예에서는, 터치 감지형 표면(603) 상의 또다른 2개의 손가락의 스와이프 제스처)를 도시한다.
UI(600E)는 윈도우(612) 내의 사용자 인터페이스 컨테이너들의 계층에서의 또다른 레벨을 도시한다. 사용자 인터페이스 컨테이너 선택 이벤트(622)에 응답하여, 현재의 컨테이너 지시자(614-4)는 다시 윈도우(612)의 새로운 내부 부분으로 위치를 변경하여, 현재의 컨테이너 지시자(614-4)에 의해 윤곽 표시된 윈도우(612)의 이 부분이 현재 선택되는 컨테이너임을 반영하였다. 사용자 인터페이스 컨테이너 선택 이벤트(622)에 응답하여, 현재의 컨테이너 지시자(614-4)에 의해 윤곽 표시된 윈도우(612)의 내부 부분은 터치 감지형 표면(603)에 비례하여 매핑된다(625). 또한, 장치는, "텍스트 영역과 상호작용(interacting with text area)"이라고 말하는 것과 같이, 사용자 인터페이스 컨테이너 선택 이벤트(622)를 검출하는 것에 응답하여 현재 선택된 컨테이너와 연관된 접근성 정보를 출력할 수 있다.
또한, UI(600E)는, 초기 접촉 점(629-1) 및 그 다음의 이 초기 접촉 점의 이동(629-2)을 갖는 예시적인 사용자 인터페이스 네비게이션 제스처(629)(이 예에서는, 터치 감지형 표면(603) 상의 단일 손가락의 이동)를 포함한다.
UI(600F)(도 6f)는 사용자 인터페이스 네비게이션 제스처(629)에 따른 현재의 컨테이너 내의 현재의 포커스(630)의 이동을 도시한다. 여기서, 현재의 컨테이너는 텍스트 필드 사용자 인터페이스 요소, 즉 "Apple leads the way ..."로 시작하는 텍스트 박스이다. 텍스트 필드 사용자 인터페이스 요소는 컨테이너의 역할을 하는데, 그 이유는 텍스트 필드 내의 텍스트/단어들이 매핑된 터치 감지형 표면(603) 상의 손가락 제스처를 이용하여 네비게이트될 수 있는 "서브요소들"의 역할을 하기 때문이다. 텍스트 필드 사용자 인터페이스 요소에 있어서, 현재의 포커스(630)는 텍스트 필드 내의 서브요소(예를 들어, 로터의 현재의 설정에 따른 단어나 문자)에 상주할 수 있다. UI(600F)에 있어서, 현재의 포커스(630)의 위치는 매핑된 터치 감지형 표면(603) 상의 이동하는 단일 손가락 접촉(629-3)의 위치에 대응한다. 또한, 장치는, 현재의 포커스에서의 단어(즉, "leads")를 말하는 것/출력하는 것과 같이, 사용자 인터페이스 네비게이션 제스처(629)를 검출하는 것에 응답하여 현재의 포커스(630)와 연관된 접근성 정보를 출력할 수 있다.
따라서, 접근성 사용자 인터페이스는, 내포형 컨테이너들 사이에서 네비게이트하기 위한 위치-독립적 손가락 제스처들(예를 들어, 616, 618, 622 및 628), 및 현재의 컨테이너 내에서 네비게이트하기 위한 위치-의존적 손가락 제스처들(예를 들어, 629) 모두를 포함할 수 있는데, 여기서 현재의 컨테이너는 터치 감지형 표면에 매핑된다. 통상적으로, 이들 제스처들의 타입들은 또한 가청 정보와 같이 네비게이션에 대한 접근성 정보를 출력한다.
또한, UI(600F)는, 초기 접촉 점들(628-1 및 628-2) 및 그 다음의 터치 감지형 표면의 좌측으로의 이들 초기 접촉 점들의 이동(628-3 및 628-4)을 갖는 예시적인 사용자 인터페이스 컨테이너 선택해제 이벤트(628)(이 예에서는, 2개의 손가락의 스와이프 제스처)를 포함한다.
UI(600G)(도 6g)는, 사용자 인터페이스 컨테이너 선택해제 이벤트(628) 이후에, 현재의 컨테이너 지시자(614)가 내포형 컨테이너들의 계층을 현재의 컨테이너 지시자(614-3)에 의해 정의된 이전의 컨테이너로 거꾸로 트래버스한 것을 도시한다.
UI(600H) 내지 UI(600J)(도 6h 내지 도 6j)는, Apple 사의 iTunes? 애플리케이션과 같은 음악 및 비디오 재생기 애플리케이션에서의 접근가능한 네비게이션을 위한 사용자 인터페이스 컨테이너들의 계층을 도시한다.
UI(600H)(도 6h)에 있어서, 메인 애플리케이션 윈도우(634)는 전체 사용자 인터페이스 요소이다. 전체 사용자 인터페이스 윈도우(634)가 현재 선택된 컨테이너임을 식별하는데 현재의 컨테이너 지시자(636-1)가 이용된다. 사용자 인터페이스 컨테이너 선택 이벤트(638)(이 예에서는, 터치 감지형 표면(603) 상의 2개의 손가락의 스와이프 제스처)는 초기 접촉 점들(638-1 및 638-2) 및 그 다음의 이들 초기 접촉 점들의 우측으로의 이동(638-3 및 638-4)을 갖는다.
UI(600I)(도 6i)는, 사용자 인터페이스 컨테이너 선택 이벤트(638)를 검출하는 것에 응답하여, 현재의 컨테이너 지시자(636-2)가 애플리케이션 윈도우(634)의 새로운 내부 부분으로 위치를 변경하여, 현재의 컨테이너 지시자(636-2)에 의해 현재 윤곽 표시된 윈도우(634)의 이 부분이 현재 선택되는 컨테이너임을 반영한 것을 도시한다. 사용자 인터페이스 컨테이너 선택 이벤트(638)에 응답하여, 현재의 컨테이너 지시자(636-2)에 의해 윤곽 표시된 윈도우(634)의 내부 부분은 터치 감지형 표면(603)에 비례하여 매핑된다. 또한, 장치는, "podcast, table"이라고 말하는 것과 같이, 사용자 인터페이스 컨테이너 선택 이벤트(638)를 검출하는 것에 응답하여 현재 선택된 컨테이너와 연관된 접근성 정보를 출력할 수 있다.
또한, UI(600I)는, 초기 접촉 점(640-1) 및 그 다음의 이 초기 접촉 점의 이동(640-2)을 갖는 예시적인 사용자 인터페이스 네비게이션 제스처(640)(이 예에서는, 터치 감지형 표면(603) 상의 단일 손가락의 이동)를 포함한다.
UI(600J)(도 6j)는 사용자 인터페이스 네비게이션 제스처(640)에 따른 현재의 컨테이너 내의 현재의 포커스(641)의 이동을 도시한다. UI(600J)에 있어서, 현재의 포커스(641)의 위치는 매핑된 터치 감지형 표면(603) 상의 이동하는 단일 손가락 접촉(640-3)의 위치에 대응한다. 또한, 장치는, 현재의 포커스에서의 단어("temp puts ... selected row")를 말하는 것과 같이, 사용자 인터페이스 네비게이션 제스처(640)를 검출하는 것에 응답하여 현재의 포커스(641)와 연관된 접근성 정보를 출력할 수 있다.
따라서, 음악 및 비디오 재생기 애플리케이션들뿐만 아니라, 많은 다른 소프트웨어 애플리케이션들은 일련의 사용자 인터페이스 컨테이너들로서 네비게이트될 수 있는데, 여기서 현재의 컨테이너는 터치 감지형 표면에 매핑된다.
UI(600K) 내지 UI(600S)(도 6k 내지 도 6s)는 네비게이션을 위한 예시적인 접근성 사용자 인터페이스들을 도시한다.
사용자 인터페이스(644)(UI(600K))는 데스크톱(646), 메뉴 바(650) 및 도크(654)를 비롯하여 다수의 사용자 인터페이스 요소들을 포함한다. 접근성 사용자 인터페이스가 활성인 경우, 현재의 컨테이너 지시자(648)는 사용자 인터페이스 요소들 중 적어도 하나에서 또는 그 주위에서 가시된다. UI(600K)에 있어서, 현재의 컨테이너 지시자(648-1)는, 상이한 드롭다운 메뉴 타이틀들, 즉 File(650-1), Edit(650-2), View(650-3), Go(650-4), Tools(650-5) 등을 포함하는 메뉴 바(650)에 있다. 메뉴 바(650)는 (예를 들어, 도 6a-2에 도시된 메뉴 바 매핑과 유사하게) 터치 감지형 표면(603)에 매핑된다. 메뉴 바 항목인 Tools(650-5)이 강조되는데, 그 이유는 이것이 현재의 컨테이너(메뉴 바(650)) 내의 현재의 포커스이기 때문이다.
또한, UI(600K)는, 이 예에서는 (Tools(650-5)에 대응하는) 위치(656-1) 및 위치(656-2)에서의 2개의 손가락의 분할 탭(two-finger split tap)인 사용자 인터페이스 컨테이너 선택 이벤트(656)를 도시한다. 컨테이너들 사이에서의 네비게이트를 위해 임의의 적합한 제스처가 이용될 수 있는데, 이는 2개의 손가락의 우측/좌측 스와이프 제스처들 또는 핀치 및 디핀치 제스처들을 포함하지만, 이에 제한되지는 않는다. 컨테이너 선택 이벤트들은 위치-의존적 제스처들(예를 들어, 분할 탭들) 및 위치-독립적 제스처들(예를 들어, 2개의 손가락의 스와이프 제스처들)을 포함할 수 있다.
UI(600L)(도 6l)는, 사용자 인터페이스 컨테이너 선택 이벤트(656)에 응답하여, 툴 메뉴가 현재의 컨테이너로 되고, 그에 따라 현재의 컨테이너 지시자(648-2)에 의해 강조되는 것을 도시한다. 툴 메뉴의 영역은 터치 감지형 표면(603)(도시되지 않음)에 매핑되며, 접근성 정보가 방출된다(예를 들어, 단어 "툴 메뉴(tools menu)"를 말함). 또한, 접근성 사용자 인터페이스는 현재의 컨테이너 내의 손가락 위치 지시자(659)를 나타낼 수 있는데, 이는 매핑된 터치 감지형 표면(603)(도시되지 않음) 상의 손가락의 현재의 위치에 대응하는 컨테이너에서의 위치를 나타낸다. UI(600L)에 있어서, 손가락 위치 지시자(659)는 메뉴 항목 Select Tool(658) 위에 있는데, 이는 현재의 포커스를 가지며, 그에 따라 강조된다. 현재의 포커스가 매핑된 터치 감지형 표면(603) 상의 손가락에 따라 이동함에 따라, 접근성 정보가 방출된다(예를 들어, 단어 "툴 선택됨(tools, selected)"을 말함).
UI(600L)의 예에 있어서, 현재의 컨테이너가 툴 메뉴로 설정된 이후의 일정 시간에, 사용자는 애플리케이션들을 선택하기 위한 접근성 특징을 개시하였다. 터치 감지형 표면(603)의 영역(688)(도 6t)에서의 2개의 손가락의 더블 탭 제스처 또는 키보드나 점자(Braille) 장치 상의 키 조합들과 같이, 애플리케이션 선택자를 개시하는 임의의 적합한 방법이 이용될 수 있다.
이 예에 있어서, 애플리케이션 선택자를 개시하라는 요청을 검출하는 것에 응답하여, 접근성 사용자 인터페이스 UI(600L)는 애플리케이션들(예를 들어, 현재 실행 중인 애플리케이션들)의 리스트를 갖는 애플리케이션 선택자 대화 박스(660)를 디스플레이한다. 몇몇 실시예에 있어서, 대화 박스는 애플리케이션 선택을 위해 터치 감지형 표면에 매핑된다. 몇몇 실시예에 있어서, 대화 박스는 디스플레이되지 않는다. 대신에, 가능한 애플리케이션 선택이 가청으로 방출된다. UI(600L)에 있어서, 애플리케이션 선택은 Preview(660-1)(현재의 포커스를 갖는 애플리케이션), Mail(660-2) 및 Dock(660-3)를 포함한다.
이 예에 있어서, 사용자는 Dock(660-3)에 대한 애플리케이션 선택자 대화 박스의 옵션들 내에서 네비게이트하며, 스위칭할 애플리케이션을 선택한다(네비게이션 및 선택은 도 6L에 도시되지 않음). 애플리케이션 선택자 대화 박스(660) 내에서의 네비게이션은, 키 누름, 손가락 제스처들, 마우스 커서 이동 등을 포함하지만 이에 제한되지는 않는 임의의 적합한 방법에 의해 달성가능할 수 있다.
UI(600M)(도 6m)는, 사용자가 Dock(660-3)를 선택하는 것에 응답하여, 현재의 컨테이너 지시자(648-3)가 사용자 인터페이스의 저부의 도크 영역(654)을 강조하는 것을 도시한다. Dock(660-3)를 선택한 이후의 일정 시간에, 사용자는 역시 애플리케이션 선택자를 개시하는데, 이는 애플리케이션 선택자 대화 박스(662)가 디스플레이되게 한다. 여기서, 애플리케이션 선택은 Dock(662-1)(이것이 현재의 포커스를 갖는 애플리케이션이기 때문에 현재(current)로 마킹됨), Mail(662-2) 및 Finder(662-3)를 포함한다.
이 예에서 계속하여, 사용자는 Mail(662-2)에 대한 애플리케이션 선택자 대화 박스의 옵션들 내에서 네비게이트하며, 스위칭할 애플리케이션을 선택한다(애플리케이션 선택자 대화 박스 내에서의 네비게이션 및 선택은 도 6m에 도시되지 않음).
UI(600N)(도 6n)는, 사용자가 Mail(662-2) 애플리케이션을 선택하는 것에 응답하여, 접근성 사용자 인터페이스가 메일 애플리케이션(664)으로 스위칭하는 것을 도시한다. 메일 애플리케이션(664)은 (현재의 컨테이너 지시자(648-4)에 의해 지시된 바와 같은 현재의 컨테이너인) 이메일 리스트 영역(664-1)뿐만 아니라 미리보기 영역(664-2)을 포함한다. 몇몇 실시예에 있어서, 여기에 도시된 바와 같이, 현재의 컨테이너가 아닌 영역은 디밍 방식으로 또는 연한 컬러 오버레이로 디스플레이되는 한편, 현재의 컨테이너인 영역은 정상적으로 디스플레이될 것이다.
UI(600O)(도 6o)는, (예를 들어, 터치 감지형 표면(603)의 영역(684)(도 6t)에서의 2개의 손가락의 더블 탭 제스처에 응답하여) 몇몇 실시예에서 이용가능한 윈도우 선택자 기능을 사용자가 개시한 것을 도시한다. 애플리케이션 선택자에 대한 것과 같이, 몇몇 실시예에 있어서, 윈도우 선택자 옵션들을 갖는 대화 박스가 디스플레이된다. 몇몇 실시예에 있어서, 대화 박스는 윈도우 선택을 위해 터치 감지형 표면에 매핑된다. 여기서, 윈도우 선택자 대화 박스(666)는 가능한 선택들인 Current(666-1) 및 Selected item(666-2)을 나타낸다. Current(666-1)는 현재의 컨테이너(여기서, 이메일 리스트 영역(664-1))인 애플리케이션의 부분 또는 윈도우를 언급한다. 이 예에 있어서, Selected item(666-2)은, 이메일 리스트 영역(664-1)에서 현재 선택된 이메일(예를 들어, "Absolutely Free Image Hosting")에 대한 미리보기 영역(664-2)을 포함하는 윈도우이다.
이 예에 있어서, 사용자는 Selected item(666-2)에 대한 윈도우 선택자 대화 박스의 옵션들 내에서 네비게이트하였으며, 스위칭할 윈도우를 선택하였다(윈도우 선택자 대화 박스(666) 내에서의 네비게이션 및 선택은 도 6o에 도시되지 않음). 윈도우 선택자 대화 박스(666) 내에서의 네비게이션은, 키 누름, 손가락 제스처들, 마우스 커서 이동 등을 포함하지만 이에 제한되지는 않는 임의의 적합한 방법에 의해 달성가능할 수 있다.
UI(600P)(도 6p)는, 윈도우 선택자 대화 박스(666)에서의 Selected item(666-2)의 사용자의 선택에 응답하여, 현재의 컨테이너임을 나타내기 위해서 미리보기 영역(664-2)이 현재의 컨테이너 지시자(648-5)로 강조되는 것을 도시한다.
미리보기 영역(664-2)은 라인들(670-1 내지 670-6)을 갖는 이메일(670)을 디스플레이한다. 미리보기 영역(664-2) 내의 현재의 포커스는 라인(670-3) 상에 있다. (UI(600L)에서의 지시자(659)와 유사한) 손가락 위치 지시자(672-1)는 라인(670-3) 상에 있는데, 이는 현재의 포커스를 가지며, 그에 따라 강조된다. 현재의 포커스가 매핑된 터치 감지형 표면(603) 상의 손가락에 따라 이동함에 따라, 접근성 정보가 방출된다(예를 들어, 단어 "간편하고 빠른 완전 무료의 이미지 호스팅 및 공유 서비스(Simple, fast, absolutely free image hosting and sharing service for you"를 말함).
컨테이너 내의 한정된 축을 따른
네비게이션
UI(600P) 내지 UI(600S)(도 6p 내지 도 6s)는 사용자 인터페이스 컨테이너 내에서의 네비게이션을 도시하는데, 여기서 네비게이션은 축(예를 들어, 컨테이너 내의 수평축)에 한정된다. 이러한 네비게이션은, 사용자가 다수의 단어 라인들을 포함하는 페이지 상의 하나의 라인을 따라 단어들을 선택하며 듣거나, 또는 사용자 인터페이스 요소들의 2-차원 어레이(예를 들어, 스프레드시트 또는 아이콘들의 어레이)에서 행 또는 열을 트래버스하는 것을 도울 수 있다. 한정된 축을 따른 네비게이션은, 컨테이너 내에서 사용자가 네비게이트할 수 있는 효율 및 속도를 개선하는데, 그 이유는 매핑된 터치 감지형 표면 상의 사용자의 손가락의 이동이 터치 감지형 표면 상의 통상적인 네비게이션에 대한 것만큼 정밀할 필요가 없기 때문이다.
몇몇 실시예에 있어서, 컨테이너 내의 한정된 축을 따른 네비게이션은, 손가락 네비게이션 제스처가 판독되는 라인과 엄격하게 정렬된 채로 유지되지 않는 경우에도 전체 라인이 용이하게 판독되도록 사용자가 손가락 제스처에 변경 입력(예를 들어, 터치 감지형 표면 상에서 손가락 네비게이션 제스처를 수행하는 동안에 키보드 키(예를 들어, 시프트 키)를 누르는 것)을 추가하는 경우에 발생한다.
UI(600P 내지 600S)에 있어서, 라인들(670-1 내지 670-6) 각각은, 사용자 인터페이스 요소들(즉, 단어들)이 정렬되는 축(671)을 갖는다. 복수의 사용자 인터페이스 요소들 중 하나의 라인을 따라 네비게이트하기 위해서, 사용자 인터페이스 네비게이션 제스처는, 제스처 이동에 따라 네비게이션 제스처의 현재의 포커스를 이동시키는 것을 포함할 수 있는데, 여기서 현재의 포커스에 대한 위치들은 실질적으로 네비게이트되는 라인의 축에 한정된다.
예를 들어, UI(600Q)에 있어서, 손가락 네비게이션 제스처(674)는 초기 접촉(674-1), 및 정확하게는 수평은 아닌 이동(674-2)을 갖는다. UI(600R)(도 6r)에 있어서, 현재의 포커스(672-2)는, 이동(674-2)이 전체적으로 정확하게는 수평이 아닌 경우에도, 이동(674-2)의 수평 성분에 따라, 라인(670-3)과 정렬되는 축(671-3)을 따라 이동하였다.
그러나, 손가락 이동이 실질적으로 축으로부터 벗어난 경우, 현재의 포커스는 네비게이트되고 있었던 라인의 축으로부터 떨어진 사용자 인터페이스 요소로 변경한다. 예를 들어, UI(600R)에 있어서, 사용자 인터페이스 네비게이션 제스처(676)는 초기 접촉(676-1), 및 수평 방향으로부터 실질적으로 벗어난 방향으로의 이동(676-2)을 갖는다. 따라서, UI(600S)(도 6s)에 있어서, 현재의 포커스(672-3)는 축(671-3)을 따라 수평으로 계속 이동하는 것보다는 라인(670-4)으로 수직으로 이동하였다.
특정 네비게이션 제스처들에 대한 지역적 터치 표면 할당
몇몇 실시예에 있어서, 터치 감지형 표면(603)의 미리 정해진 영역들(예를 들어, 도 6t에서의 예시적인 영역들(682, 684, 686 및 688))은, 특정 타입의 제스처(예를 들어, 2개의 손가락의 더블 탭 제스처)가 검출되는 경우의 특정의 접근가능한 동작들에 대해 지정될 수 있다. 영역(682)은, (예를 들어, 2개의 손가락의 더블 탭 제스처가 영역(682)에서 검출되는 경우) 현재의 컨테이너를 메뉴 바 컨테이너(650)로 하기 위해 지정된다. 영역(684)은, (예를 들어, 2개의 손가락의 더블 탭 제스처가 영역(684)에서 검출되는 경우) 윈도우 선택자(666)를 활성화하기 위해 지정된다. 영역(686)은, (예를 들어, 2개의 손가락의 더블 탭 제스처가 영역(686)에서 검출되는 경우) 현재의 컨테이너를 도크(654)로 하기 위해 지정된다. 영역(688)은, (예를 들어, 2개의 손가락의 더블 탭 제스처가 영역(688)에서 검출되는 경우) 애플리케이션 선택자(660)를 활성화하기 위해 지정된다. 이러한 타입의 제스처에 있어서, 응답은 터치 감지형 표면 상의 제스처의 위치에 의존하지만, 응답은 터치 감지형 표면에 대한 현재의 컨테이너의 매핑에 독립적이다.
도 7a 내지 도 7c는 몇몇 실시예에 따른 사용자 인터페이스 요소들 사이의 터치 기반 네비게이션을 위한 접근성 방법을 도시한 흐름도들이다. 이 방법(700)은, 접근성 모듈(129)과 함께 디스플레이 및 터치 감지형 표면을 갖는 다기능 장치(예를 들어, 300, 도 3)와 같은 전자 장치에서 수행된다. 방법(700)에서의 몇몇 동작들은 결합될 수 있고/있거나, 몇몇 동작들의 순서는 변경될 수 있다.
몇몇 실시예에 있어서, 터치 감지형 표면은 디스플레이와는 별도이다. 몇몇 실시예에 있어서, 터치 감지형 표면은 터치 패드(예를 들어, 355, 도 3)이다.
몇몇 실시예에 있어서, 디스플레이는 터치 스크린 디스플레이(예를 들어, 112, 도 2)이며, 터치 감지형 표면은 디스플레이 상에 있다(750). 몇몇 실시예에 있어서, 이 방법은 터치 스크린 디스플레이를 갖는 휴대용 다기능 장치(예를 들어, 휴대용 다기능 장치(100))에서 수행된다.
후술되는 바와 같이, 이 방법(700)은, 위치-독립적 제스처들을 이용하여 사용자 인터페이스 요소들을 통하여 네비게이트하며 이 요소들에 대한 접근성 정보를 제공하는 효율적인 방식을 제공한다. 이 방법은, 디스플레이 및 터치 감지형 표면을 갖는 전자 장치를 이용하는 경우에 시력이 손상된 갖는 사용자에 대한 인식 부담(cognitive burden)을 감소시키며, 그에 따라 보다 효율적인 인간-머신 인터페이스를 생성한다. 배터리-동작 장치들에 있어서, 사용자가 보다 신속하며 보다 효율적으로 네비게이트하는 것을 가능하게 하는 것은 전력을 절약하며, 배터리 충전들 사이의 시간을 증가시킨다.
장치는 디스플레이(예를 들어, UI(500A)(도 5a) 및 도 5i에서의 사용자 인터페이스 요소들의 제1 스크린(518)) 상에 복수의 사용자 인터페이스 요소들을 디스플레이한다(702). 현재의 포커스는 제1 사용자 인터페이스 요소 상에 있다. 전술한 바와 같이, 접근성 방법들을 실행하는 경우, 현재의 포커스는 사용자 인터페이스에서의 주어진 사용자 인터페이스 요소에(예를 들어, 접근성 커서(502)가 디스플레이되는 텍스팅 아이콘(141)에, 도 5a) 확립될 수 있다. 따라서, 현재의 포커스가 주어진 사용자 인터페이스 요소(예를 들어, 윈도우, 메뉴 항목, 대화 박스, 버튼, 위치 컨트롤 또는 다른 그래픽 사용자 인터페이스 요소) 상에 있는 경우, 현재 선택된 사용자 인터페이스 요소는 적절한 사용자 입력의 검출 시에 활성화되거나 비활성화된다. 예를 들어, 도 5a를 참조하면, 텍스팅 아이콘(141)이 현재의 포커스를 갖는 경우, 현재의 포커스를 갖는 사용자 인터페이스 요소를 활성화하기 위한 사용자 입력(예를 들어, 단일 손가락의 더블 탭 제스처)을 검출하는 것에 응답하여 텍스팅 모듈(141)이 활성화될 것이다.
디바이스는 터치-감지형 표면 상에 제1 손가락 제스처(예를 들면, 앞서 설명한, 스와이프 제스처(swipe gesture)(504)(도 5a); 또는 오른쪽 깜빡임, 표 1)를 검출한다(704). 제1 손가락 제스처는 터치-감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와 접촉하는 것과 독립적이다. 방법(700)에서, 제1 손가락 제스처에 응답하여 네비게이션의 출발지인(navigated from) 사용자 인터페이스 요소와 네비게이션의 도착지인(navigated to) 사용자 인터페이스 요소를 포함하는 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는, 터치-감지형 표면 상의 위치와 제1 손가락 제스처가 접촉할지 접촉하지 않을지 여부는 중요하지 않다. 이러한 상황에서는, 터치-감지형 표면 상의 제1 손가락 제스처의 위치는 방법에 영향을 주지 않는다; 방법은, 이 방법의 교시에서 벗어나지 않으면서, 단순히 제1 손가락 제스처가 검출된다는 것과, 제스처가 제2 사용자 인터페이스 요소를 포함하는 복수의 사용자 인터페이스 요소로부터 터치-감지형 표면 상의 0 이상의 사용자 인터페이스 요소에 대응하는 위치와 접촉할 수 있어야될 것만을 요한다. 그러므로, 방법(700)에서, 복수의 사용자 인터페이스 요소 중 한 사용자 인터페이스 요소에서 그 복수의 사용자 인터페이스 요소 중 다른 사용자 인터페이스 요소로의 제스처-기반 네비게이션은 터치-감지형 표면 상의 제1 손가락 제스처의 접촉 지점이 터치-감지형 표면 상의 복수의 사용자 인터페이스 요소 중 임의의 것에 대응하는 위치와의 접촉으로 된다(come into contact with). 또한, 일부 실시예에서, 제1 손가락 제스처는 이동하는 접촉 지점을 가질 수 있고, 디바이스는 제1 손가락 제스처의 이동하는 접촉 지점이 터치-감지형 표면 상의 임의의 사용자 인터페이스 요소에 대응하는 위치와 교차하는 것인지 이 위치와의 접촉으로 된 것인지 대해서는 무시하도록 구성될 수 있다.
따라서, 일부 실시예에서, 제1 손가락 제스처는 터치-감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와 접촉하지 않는다(706). 대안으로, 제1 손가락 제스처를 검출하는 것은 손가락 제스처에 의한 터치-감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와의 접촉을 검출하는 것과 독립적이다. 대안으로, 제1 손가락 제스처는 터치-감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와 독립적인 상태를 유지한다. 대안으로, 제1 손가락 제스처는 터치-감지형 표면 상의 제2 사용자 인터페이스 요소와 대응하는 위치에 우연히 접촉할 수 있다.
제1 손가락 제스처의 검출에 응답하여, 디바이스는 현재 포커스를 복수의 사용자 인터페이스 요소 중 제1 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 중 제2 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소와 연관된 접근성 정보를 출력한다(708).
사용자 인터페이스 요소와 연관된 접근성 정보의 출력 및 발행(emission)은 복수의 정보 항목을 포함할 수 있다. 접근성 정보는 음성 단어 또는 문자(character), 보더 히트 사운드(border hit sound), 및 사용자 인터페이스 또는 사용자 인터페이스의 접근성 양상에 관련된 임의의 적절한 문맥적인 청취가능 정보(contextual audible information)와 같은 청취가능 접근성 정보를 포함할 수 있다. 접근성 정보는 사용자 인터페이스 또는 사용자 인터페이스의 접근성 양상에 대한 정보를 전달하는 컨텍스트-위주의(context-oriented) 진동과 같은 촉각 접근성 정보를 포함할 수 있다. 접근성 정보는 점자식 디스플레이(Braille displays), 대형 프린트 디스플레이(large print displays) 등으로 보내는 텍스트 출력을 포함할 수 있다. 이들 타입의 접근성 정보 중 일부 또는 모두는 동일한 접근성 사용자 인터페이스에서 이용될 수 있다.
일부 실시예에서, 발행된 접근성 정보는 제2 사용자 인터페이스 요소에 대응하는 음성 텍스트로서 출력된 하나 이상의 단어(예를 들면, 제1 손가락 제스처에 응답하여 현재 포커스 및 접근성 커서가 향하고 있었던 사용자 인터페이스 요소의 이름)를 포함한다(710). 따라서, 도 5a 및 5b의 예에서, 디바이스는 사용자 제스처(504)의 검출에 응답하여 현재 포커스 및 접근성 커서(502)를 텍스트메시지용(texting) 애플리케이션 아이콘(141)으로부터 사진 애플리케이션 아이콘(144)으로 진행시키고 이름 "사진"이 음성 텍스트로서 출력될 수 있다.
일부 실시예에서, 제2 사용자 인터페이스 요소에 대응하는 음성 텍스트는 사용자 옵션을 포함할 수 있다(712)(도 5a 내지 5n의 사용자 인터페이스에서는 도시되지 않음). 예를 들면, 사용자 인터페이스 요소가, 볼륨 컨트롤 조절, 데이터 조절용 휠(data adjustment wheel) 회전, 재생 목록 아이콘 진행(advancing), 텍스트 필드 내의 이동 등과 같이, 사용자에 의해 조작될 수 있다면, 사용자 인터페이스 요소에 연관된 음성 텍스트로서 인터렉션 컨트롤 어구(interaction control phrase)가 발행될 수 있어 사용자는 조절가능한 사용자 인터페이스 요소를 알 수 있다. 인터렉션 컨트롤 어구의 비-제한적인 예로서는 "볼륨 컨트롤 - 볼륨을 키우려면 밀어올려주시고, 줄이려면 밀어내려주세요(volume control - swipe up to increase, swipe down to decrease)"; "스크러버 바 - 진행하려면 오른쪽, 되돌리려면 왼쪽)(scrubber bar - move right to advance, left to retreat)"; "월 선택 휠(month wheel) - 이전 항목을 선택하려면, 즉, 1월로 되돌아가려면 밀어올려주시고(swipe up), 다음 항목을 선택하려면, 즉, 12월로 진행하려면 밀어내려주세요(swipe down)"; "텍스트 필드, 커서를 왼쪽으로 이동하려면 밀어올려주시고, 커서를 오른쪽으로 이동하려면 밀어내려주세요" 등을 포함한다.
일부 실시예에서, 접근성 정보는 텍스트 접근성 정보를 포함할 수 있다(예를 들면, 점자 출력, 스크린 상의 대형 프린트 디스플레이 등)(713).
일부 실시예에서, 접근성 정보는 현재 포커스가 제1 사용자 인터페이스 요소로부터 제2 사용자 인터페이스 요소로 이동하였음을 표시하기 위해 재생되는 보더 히트 사운드를 또한 포함할 수 있다(714). 따라서, 도 5a 및 5b의 예에서, 디바이스가 사용자 제스처(504)의 검출에 응답하여 현재 포커스 및 접근성 커서(502)를 텍스트 애플리케이션 사용자 인터페이스 요소 아이콘(141)에서 사진 애플리케이션 사용자 인터페이스 아이콘(144)으로 진행시켰을 때, 보더 히트 사운드가 출력될 수 있다. 다른 예로서, 사용자 인터페이스가 3개의 사용자 인터페이스 요소 A, B 및 C를 가지며, 현재 포커스가 요소 A 상에 있다면, 사용자의 사용자 인터페이스 요소를 통한 네비게이션 진행 상황을 그 사용자에게 알리는 데에 하기의 순서가 도움이 될 것이다.
ㆍ현재 포커스가 사용자 인터페이스 요소 A 상에 있다;
ㆍ디바이스는 상술한 제1 손가락 제스처와 같은 제스처를 검출한다;
ㆍ디바이스는 보더 히트 사운드를 발행한다;
ㆍ디바이스는 현재 포커스를 사용자 인터페이스 요소 A에서 사용자 인터페이스 요소 B로 변경한다;
ㆍ디바이스는 상술한 제1 손가락 제스처와 마찬가지로, 제스처를 검출한다;
ㆍ디바이스는 또 다른 보더 히트 사운드를 발행한다;
ㆍ디바이스는 현재 포커스를 사용자 인터페이스 요소 B에서 사용자 인터페이스 요소 C로 변경한다;
일부 실시예에서, 디바이스는 또한 활성화 제스처의 선택을 검출한다(716)(즉, 도 5a의 홈 버튼(204)을 누르는 것, 터치-감지형 표면 상의 사용자-개시 제스처, 특정 패턴으로 전자 디바이스를 흔드는 것, 음성-기반 활성화, 기타 등등 중에서 하나 이상을 포함하는 임의의 적절한 활성화 제스처가 검출될 수 있다). 응답으로, 디바이스는 현재 포커스인 사용자 인터페이스 요소와 연관된 동작을 실행한다(718). 예를 들면, 현재 포커스가 이미지 관리 애플리케이션(144)에 대응하는 (도 5b의) 사진 애플리케이션 아이콘(144) 상에 있고, 디바이스가 활성화 제스처의 선택을 검출한다면, 디바이스는 이미지 관리 애플리케이션을 실행할 것이다. 일부 실시예에서, 활성화 제스처가 터치-감지형 표면 상에서 수행되도록 구성된다면, 활성화 제스처는 현재 포커스를 가지는 사용자 인터페이스 요소의 위치에는 독립적일 수 있음을 유의한다. 따라서, 사용자는 주어진 사용자 인터페이스 요소를 활성화하기 위하여 터치-감지형 표면 상의 특정 위치를 실제로 터치하거나 접촉으로 되어야 할 필요는 없다.
일부 실시예에서, 디바이스는 터치-감지형 표면 상의 제2 손가락 제스처를 검출한다(720). 제2 손가락 제스처는 제1 속가락 제스처와 실질적으로 유사하다. 제1 손가락 제스처에 관련하여 상술한 바와 같이, 제2 손가락 제스처는 터치-감지형 표면 상의 제3 사용자 인터페이스 요소에 대응하는 위치와의 접촉과 독립적이다. 제2 손가락 제스처의 검출에 응답하여, 디바이스는 현재 포커스를 복수의 사용자 인터페이스 요소 중 제2 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 중 제3 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소와 연관된 접근성 정보를 출력한다(722). 예를 들면, 도 5c로부터 도 5d로의 이행(transition)을 참조해 볼 때, 제스처(506)가 디바이스로 하여금 현재 포커스 및 접근성 커서(502)를 사진 애플리케이션 아이콘(144)에서 카메라 애플리케이션 아이콘(143)으로 진행하게 한다.
일부 실시예에서, 제3 사용자 인터페이스 요소가 디스플레이 상에서 제2 사용자 인터페이스 요소 위 또는 아래에 있는 경우에, 제2 사용자 인터페이스 요소와 연관된 접근성 정보는 래핑 사운드(wrapping sound)를 포함한다(724). 래핑 사운드는 최근에 검출된 사용자 제스처에 응답하여 수행된 네비게이션이 주어진 행(row) 내의 사용자 인터페이스 요소(또는 사용자 인터페이스 요소의 영역)로부터 다른 행의 사용자 인터페이스 요소(또는 사용자 인터페이스 요소의 다른 영역)로 네비게이션하는 결과를 초래했다고 사용자에게 신호하도록 의도된 것이다. 예를 들면, 도 5e로부터 도 5f로의 이행을 참조해 볼 때, 사용자 제스처(510)는 디바이스로 하여금 현재 포커스 및 접근성 커서(502)를 첫 번째 애플리케이션 행(514)의 비디오 애플리케이션 아이콘(145)으로부터 그 다음의 애플리케이션 아이콘들의 행(516)의 날씨 애플리케이션 아이콘(149-1)으로 진행하게 한다.
일부 실시예에서, 복수의 사용자 인터페이스 요소가 스크롤가능 뷰(scrollable view)에 있는 경우에, 디바이스는 복수의 사용자 인터페이스 요소를 스크롤한다(726). 예를 들면, UI(500I)로부터 UI(500J)로의 이행을 참조해 볼 때, 서로 다른 사용자 인터페이스 스크린 상에 디스플레이된 사용자 인터페이스 요소들의 시퀀스를 통해 진행하는 예가 도시된다.
일부 실시예에서, 디바이스는 터치-감지형 표면 상의 제3 손가락 제스처를 검출한다(728). 제3 손가락 제스처는 터치-감지형 표면 상의 제2 사용자 인터페이스 요소에 대응하는 위치와의 접촉과 독립적이다. 제3 손가락 제스처는 제1 손가락 제스처와 실질적으로 반대이다.
제3 손가락 제스처의 검출에 응답하여, 디바이스는 현재 포커스를 복수의 사용자 인터페이스 요소 중 제3 사용자 인터페이스 요소로부터 복수의 사용자 인터페이스 요소 중 제2 사용자 인터페이스 요소로 변경하고, 제2 사용자 인터페이스 요소와 연관된 접근성 정보를 출력한다(730).
일부 실시예에서, 디바이스는 제2 사용자 인터페이스 요소가 제1 편집가능 텍스트 필드(예를 들어, 도 5k의 요소(530))인지 판정하고, 제1 편집가능 텍스트 필드라고 판정된 경우에, 디바이스는 제1 편집가능 텍스트 필드의 제1 커서 위치에 커서(예를 들어, 도 5k의 커서(532))를 설정하고, 제1 편집가능 텍스트 필드(예를 들어, 도 5k의 출력 요소 라벨(536), "사용자 이름")와 연관된 접근성 정보를 출력한다(732).
일부 실시예에서, 제1 편집가능 텍스트 필드와 연관된 접근성 정보는 제1 편집가능 텍스트 필드에 대응하는 음성 텍스트로서 출력된 하나 이상의 단어를 포함할 수 있다(734). 또한, 일부 실시예에서, 제1 편집가능 텍스트 필드와 연관된 접근성 정보는 제1 편집가능 텍스트 필드의 제1 문자에 대응하는 음성 텍스트로서 출력된 텍스트 문자를 포함할 수 있다(736).
일부 실시예에서, 디바이스는 제1 제스처에 실질적으로 수직인 방향으로 터치-감지형 표면 상의 제4 손가락 제스처를 검출한다(738)(예를 들어, 하향 깜빡임 제스처((도 5k의 544 및 도 5n의 550)는 도 5a의 제스처(504)와 같이, 오른쪽방향 깜빡임 제스처에 수직이다). 제4 손가락 제스처의 검출에 응답하여, 디바이스는 커서가 제1 편집가능 텍스트 필드의 끝에 있는지를 판정한다(740).
커서가 제1 편집가능 텍스트 필드의 끝에 있지 않은 경우에(742), 디바이스는 커서를 제1 편집가능 텍스트 필드 내의 제2 커서 위치로 앞으로 이동하고, 제1 편집가능 텍스트 필드 내의 제2 커서 위치와 연관된 접근성 정보를 출력한다. 예를 들면, 하향 깜빡임 제스처(도 5k의 544)에 응답하여, 디바이스는 커서(532)를 1 문자 만큼 이동하고, 철자 "C"를 출력한다(도 5l).
일부 실시예에서, 현재 포커스가 텍스트 필드 사용자 인터페이스 요소 상에 있다면, 텍스트 커서가 텍스트 필드를 통해 앞으로 진행하거나 뒤로 이동할 때 디바이스는 철자 단위로(letter-by-letter basis) 텍스트 필드의 컨텐츠에 대응하는 가청 정보를 출력할 수 있다. 따라서, 이 실시예에서, 텍스트 필드가 단어 "client"를 포함하고 사용자가 그 텍스트 필드 내의 철자 마다(from letter-to letter) 텍스트 커서를 이동한다면, 사용자는 텍스트 필드의 시작부분으로부터 끝을 향해 텍스트 커서를 진행하였을 때 디바이스는 철자 "C", "L", "I", "E" 등을 청취가능하게 출력할 것이다(예를 들어, 도 5k 및 도 5l을 참조하여볼 때, 텍스트 커서(532)는 제1 텍스트 스트링(534) "client"에 선행하는 위치로부터 이 제1 텍스트 스트링(534)의 "c"와 "l" 사이의 위치로 진행한다).
그러나, 커서가 제1 편집가능 텍스트 필드의 끝에 있는 경우에(744), 디바이스는 제1 편집가능 텍스트 필드의 끝에 커서를 유지하고, 커서가 제1 편집가능 텍스트 필드의 끝에 있는 것을 나타내는 접근성 정보를 출력한다(744). 예를 들면, (도 5n의) 하향 깜빡임 제스처(550)에 응답하여, 디바이스는 요소(530)의 편집가능 텍스트 필드의 끝에 커서를 유지시키고 커서가 요소(530)의 편집가능 텍스트 필드의 끝에 있음을 표시하는 접근성 정보를 출력한다.
일부 실시예에서, 디바이스는 커서가 제1 편집가능 텍스트 필드에 있는 경우에, 제4 제스처와 실질적으로 반대인 방향으로 터치-감지형 표면 상의 제5 손가락 제스처를 검출한다(746). 제5 손가락 제스처의 검출에 응답하여, 제1 편집가능 텍스트 필드 내의 제3 커서 위치로 제1 편집가능 텍스트 필드 내의 커서를 뒤로 이동하고, 제1 편집가능 텍스트 필드 내의 제3 커서 위치와 연관된 접근성 정보를 출력한다(748). 예를 들면, 도 5l로부터 도 5m으로의 이행을 참조하여 볼 때, 사용자 제스처(546)를 검출한 후에 텍스트 커서(532)는 제1 텍스트 스트링(534)의 "c"와 "l" 사이의 위치로부터 제1 텍스트 스트링(534) "client"에 선행하는 위치로 이동한다. 이 예에서, 제3 커서 위치는 제1 커서 위치와 동일하다.
방법(700)은 제1 타입의 손가락 제스처(예를 들면, 스와이프 제스처(504))를 이용하여 사용자 인터페이스 요소들 사이를 네비게이션하며, 이 제스처의 검출 및 해석은 터치-감지형 표면 상의 특정 사용자 인터페이스 요소에 대응하는 위치와 접촉하는 것과 독립적임을 유의한다. 방법(700)은 기존의 접근성 방법을 보완하거나 대체한다. 예를 들면, 다른 타입의 손가락 제스처(예를 들어, 탭 제스처, 탭-엔-홀드(tap-and-hold) 제스처, 또는 터치-감지형 표면 상에서 소정의 속도보다 느린 손가락 움직임) 또한 접근성 인터페이스에서 이용될 수 있으며, 이 경우 이들 다른 타입의 제스처의 검출 및 해석은 터치-감지형 표면 상의 특정 사용자 인터페이스 요소에 대응하는 위치와 접촉하는 것에 따르게 된다. 예를 들면, 상술한 도 5h의 제스처(519)의 설명을 참조한다.
도 8a 및 8b는 일부 실시예에 따른 문서 섹션 인디시아(document section indicia)를 전달하기 위한 접근성 방법을 도시하는 흐름도이다. 방법(800)은 접근성 모듈(129)에 관련하여 디스플레이 및 터치-감지형 표면을 가지는 다기능 디바이스(예를 들어, 도 3의 300)와 같은 전자 디바이스에서 수행된다. 방법(800)의 일부 동작은 조합될 수 있고/거나 일부 동작의 순서가 변경될 수 있다.
일부 실시예에서, 터치-감지형 표면은 디스플레이로부터 분리된다. 일부 실시예에서, 터치-감지형 표면은 터치 패드이다(예를 들어, 도 3의 355).
일부 실시예에서, 디스플레이는 터치 스크린 디스플레이(예를 들어, 도 2의 112)이고, 터치-감지형 표면은 디스플레이 상에 있다(822). 일부 실시예에서, 방법은 터치 스크린 디스플레이를 가지는 휴대용 다기능 디바이스에서 수행된다(예를 들어, 휴대용 다기능 디바이스(100)).
이하 기술될 바와 같이, 방법(800)은 다량의 전자 문서에 걸쳐 네비게이션하기 위한 효율적인 방식을 제공하고 다량의 문서에서의 현재 위치에 대한 접근성 정보를 제공한다. 방법은 눈이 나쁜 사용자가 다량의 문서에 걸쳐 네비게이션하는 데에 디스플레이 및 터치-감지형 표면을 가지는 전자 디바이스를 이용할 경우 그 사용자의 인식 부담을 덜어줌으로써, 보다 효율적인 인간-머신 인터페이스를 생성한다. 배터리-구동형 디바이스들에서는, 사용자가 보다 빠르고 효율적이게 네비게이션할 수 있게 해줌으로써 전력은 절약하고 배터리 충전 간의 시간 간격은 늘어난다.
디바이스는 디스플레이 상에 문서의 제1 섹션을 디스플레이하고, 문서는 복수의 섹션을 갖는다(802)(예를 들어, 도 5p를 참조하면, UI(500P)는 문서 디스플레이 영역(552) 내에 디스플레이되고 있는 문서(553-1)의 시작부분을 나타낸다). 본원에 개시된 방법으로 디스플레이 될 수 있는 문서 타입으로는 메모, 웹 페이지, HTML 문서, XML 문서, 표, 스프레드시트, 도표, 이메일, 양식, 서신, e-북, pdf 등을 포함하지만 이에 한정되지 않는다.
디바이스는 또한 문서의 제1 섹션에 대응하는 가청 문서 섹션 인디시아를 출력한다(803). 예를 들면, 도 5p의 예에서는, 가성 문서 섹션 인디시아가 "디스플레이되고 있는 문서의 4개의 섹션 중 섹션 1"과 같은 음성 메시지일 수 있다. 표, 스프레드시트, 도표, 또는 유사한 표-형식의 문서가 디스플레이되고 있는 경우, 가청 문서 섹션 인디시아는 표-형식의 문서 내의 관련 위치를 표시, 예를 들어, "25행 중 행 1-5를 디스플레이", 또는 "25 열 중 열 A-E를 디스플레이" 또는 "열 A-Y 중 열 A-E를 디스플레이"할 수 있다.
디바이스는 터치-감지형 표면 상의 제1 손가락 제스처(예를 들어, 도 5p의 사용자 제스처(555))를 검출한다(804). 일부 실시예에서, 제1 손가락 제스처는 터치-감지형 표면 상의 다수의 동시 손가락 접촉(예를 들어, 도 5p의 다중-손가락 제스처(555) 참조)을 포함한다(806).
제1 손가락 제스처의 검출에 응답하여, 디바이스는 문서의 제1 섹션의 디스플레이를 중단하고, 그 대신 디스플레이 상에 문서의 제2 섹션을 디스플레이하는데, 문서의 제2 섹션은 문서의 제1 섹션에 인접하고, 문서의 제2 섹션에 대응하는 가청 문서 섹션 인디시아를 출력한다(808). 예를 들면, 도 5p로부터 5q로의 이행을 참조해 보면, 도 5q에서, 사용자 인터페이스는 문서의 시작 부분(553-1)의 디스플레이를 중단하였고, 그 대신 문서 디스플레이 영역(552) 내에 문서의 제2 섹션(553-2)을 디스플레이하였다. 섹션(553-2)은 문서(553)의 섹션(553-1)과 인접하는 것이다.
일부 실시예에서, 가청 문서 섹션 인디시아는 문서의 현재 디스플레이된 섹션에 관한 네비게이션 정보를 제공하는 음성 텍스트로서 출력된 하나 이상의 단어를 포함한다(810). 예를 들면, 도 5q의 예에서는, 가청 문서 섹션 인디시아가 "디스플레이되고 있는 문서의 4개의 섹션 중 섹션 2"와 같은 음성 메시지일 수 있다. 표, 스프레드시트, 도표, 또는 유사한 표-형식의 문서가 디스플레이되고 있는 경우, 가청 문서 섹션 인디시아는 표-형식의 문서 내의 관련 위치를 표시, 예를 들어, "25행 중 행 6-10를 디스플레이", 또는 "25 열 중 열 F-J를 디스플레이" 또는 "열 A-Y 중 열 F-J를 디스플레이"할 수 있다.
일부 실시예에서, 디바이스는 문서의 제2 섹션을 디스플레이하는 동안에 터치-감지형 표면 상의 제2 손가락 제스처를 검출한다(812). 터치-감지형 표면 상의 제2 손가락 제스처의 검출에 응답하여, 디바이스는 문서의 제2 섹션의 디스플레이를 중단하고, 디스플레이 상에 문서의 제3 섹션을 디스플레이하는데, 문서의 제3 섹션은 문서의 제2 섹션에 인접하고, 문서의 제3 섹션에 대응하는 제3 가청 문서 섹션 인디시아를 출력한다(814). 예를 들어, 도 5q를 참조하면, 디바이스는 사용자 제스처(556)를 검출한다. 응답으로, 도 5r에서는, 디바이스가 문서 디스플레이 영역(552) 내에 문서의 제3 섹션(553-3)을 디스플레이한다. 섹션(553-3)은 문서(553)의 섹션(553-2)에 인접하는 것이다. 또한, 도 5r을 참조하여 보면, 디바이스는 다중-손가락 제스처(557)를 검출하고, 응답으로, 도 5s에서, 디바이스는 문서 디스플레이 영역(552) 내에 문서의 제4 섹션(553-4)을 디스플레이한다.
일부 실시예에서, 문서의 제3 섹션에 대응하는 가청 문서 섹션 인디시아는 문서의 제3 섹션에 대응하는 음성 텍스트로서 출력된 하나 이상의 단어를 포함한다(816). 예를 들면, 도 5r의 예에서는, 문서의 제3 섹션에 대응하는 가청 문서 섹션 인디시아가 "디스플레이되고 있는 문서의 4개의 섹션 중 섹션 3"과 같은 음성 메시지일 수 있다. 도 5s의 예에서는, 문서의 제4 섹션에 대응하는 가청 문서 섹션 인디시아가 "문서의 4개의 섹션 중 섹션 4를 디스플레이"와 같은 음성 메시지일 수 있다.
일부 실시예에서, 문서의 끝부분이 디스플레이되고 있다면, 가청 문서 섹션 인디시아는 "디스플레이된 문서의 끝" 또는 "마지막 문서 섹션을 디스플레이"와 같은 음성 메시지로서의 효력이 있는 하나 이상의 단어를 포함할 수 있다. 도 5s를 참조하여 보면, 문서의 제4 섹션(553-4)이 문서 디스플레이 영역(552) 내에 디스플레이되고 이는 문서의 끝이다.
일부 실시예에서, 디바이스는 문서의 제3 섹션을 디스플레이하는 동안에, 터치-감지형 표면 상의 제3 손가락 제스처를 검출한다(818). 제3 손가락 제스처는 제2 손가락 제스처와 실질적으로 반대인 방향에 있다(예를 들어, 도 5s의 사용자 제스처(558)는 도 5r의 제스처(557)와 실질적으로 반대 방향이다). 터치-감지형 표면 상의 제3 손가락 제스처의 검출에 응답하여, 디바이스는 문서의 제3 섹션의 디스플레이를 중단하고, 디스플레이 상에 문서의 제2 섹션을 다시 디스플레이하고, 문서의 제2 섹션에 대응하는 가청 문서 섹션 인디시아를 출력한다(820). 예를 들어, 도 5t는 제스처(558)의 검출에 응답하여 문서의 섹션(553-3)을 다시 디스플레이하는 사용자 인터페이스를 도시한다. 일부 실시예에서, 제2 가청 문서 섹션 인디시아가, 2회 이상 출력되면, 추가적인 메시지, 예를 들어, "디스플레이되고 있는 문서의 4개의 섹션 중 섹션 3을 다시 디스플레이"를 포함할 수 있다. 일부 실시예에서, 사용자 제스처가 사용자를 디스플레이되고 있는 문서의 최상위(top)로 복귀시킨다면, 가청 문서 섹션 인디시아는, 예를 들어, "문서의 시작부분을 다시 디스플레이"와 같이, 사용자가 문서의 최상부에 있음을 나타내는 출력일 수 있다.
도 9a 및 도 9b는 일부 실시예에 따른 사용자 인터페이스 네비게이션 설정을 조절하는 데에 위치-독립형 제스처(location-independent gestures)를 이용하는 접근성 방법을 도시하는 흐름도이다. 방법(900)은 접근성 모듈(129)에 관련하여 디스플레이 및 터치-감지형 표면을 가지는 다기능 디바이스(예를 들어, 도 3의 300)와 같은 전자 디바이스에서 수행된다. 방법(900)의 일부 동작은 조합될 수 있고/거나 일부 동작의 순서가 변경될 수 있다.
일부 실시예에서, 터치-감지형 표면은 디스플레이로부터 분리된다. 일부 실시예에서, 터치-감지형 표면은 터치 패드이다(예를 들어, 도 3의 355).
일부 실시예에서, 디스플레이는 터치 스크린 디스플레이(예를 들어, 도 2의 112)이고, 터치-감지형 표면은 디스플레이 상에 있다(926). 일부 실시예에서, 방법은 터치 스크린 디스플레이를 가지는 휴대용 다기능 디바이스에서 수행된다(예를 들어, 휴대용 다기능 디바이스(100)).
이하 기술될 바와 같이, 방법(900)은 사용자 인터페이스 네비게이션 설정을 조절하는 데에 위치-독립형 제스처를 이용하기 위한 효율적인 방식을 제공하고 설정에 대한 접근성 정보를 제공한다. 방법은 눈이 나쁜 사용자가 디스플레이 및 터치-감지형 표면을 가지는 전자 디바이스 상의 네비게이션 설정을 조절하는 경우 그 사용자의 인식 부담을 덜어줌으로써, 보다 효율적인 인간-머신 인터페이스를 생성한다. 배터리-구동형 디바이스들에서는, 사용자가 보다 빠르고 효율적이게 네비게이션 설정을 조절할 수 있게 해줌으로써 전력은 절약하고 배터리 충전 간의 시간 간격은 늘어난다.
디바이스는 디스플레이 상에 복수의 사용자 인터페이스 요소를 디스플레이한다(902).
디바이스는 터치-감지형 표면 상의 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처(도 5k의 사용자 제스처(544))를 검출한다(904). 디바이스는 터치-감지형 표면 상의 손가락에 의한 제1 사용자 인터페이스 네비게이션 제스처의 검출에 응답하여, 현재 네비게이션가능 유닛 타입에 따라 복수의 사용자 인터페이스 요소를 네비게이션하는데, 현재 네비게이션가능 유닛 타입은 복수의 네비게이션가능 유닛 타입에서 선택된 제1 네비게이션가능 유닛 타입으로 설정된다(906). 예를 들면, 도 5k와 도 5l 간에서, 텍스트 커서(532)는 하나의 문자, 즉, 사용자 이름 텍스트 입력 요소(530) 내의 제1 텍스트 스트링(534)에 선행하는 위치로부터 스트링 "client"의 "c" 바로 다음 위치로 진행하였다. 도 5k 및 5l에서, 현재 네비게이션가능 유닛 타입은 단어에 의한 것이라기보다는 문자에 의한 것이다.
일부 실시예에서, 복수의 네비게이션가능 유닛 타입은 문자, 단어, 문장, 줄, 단락, 페이지, 방문한 링크, 미방문 링크, 및/또는 상술한 임의의 기타 컨텍스트 적합 네비게이션가능 유닛을 포함할 수 있다(908). 또한, 네비게이션가능 유닛 타입에 관한 접근성 정보는 "문자", "단어", "문장", "줄", "단락", "페이지", "방문한 링크", "미방문 링크" 또는 상술한 기타 컨텍스트 적합 네비게이션가능 유닛을 기술하는 임의의 단어와 같은 음성 단어일 수 있다(910).
디바이스는 터치-감지형 표면 상의 제1 사용자 인터페이스 네비게이션 설정 제스처를 검출하는데, 제1 사용자 인터페이스 네비게이션 설정 제스처는 터치-감지형 표면 상의 복수의 사용자 인터페이스 요소 중 임의의 사용자 인터페이스 요소에 대응하는 위치와의 접촉과 독립적이다(912)(예를 들어, 도 5u의 회전자 제스처(rotor gesture)(562)). 다시 말하면, 제스처가 터치-감지형 표면 상의 임의의 사용자 인터페이스 요소에 대응하는 위치와 접촉할지 접촉하지 않을지 여부는 중요하지 않다.
일부 실시예에서, 제1 사용자 인터페이스 네비게이션 설정 제스처는 다중 손가락 제스처이다(914)(예를 들어, 도 5u의 회전자 제스처(562)는 제1 및 제2 손가락 접촉(각각, 562-1 및 562-2)을 포함한다). 일부 실시예에서, 제1 사용자 인터페이스 네비게이션 설정 제스처는 두 손가락 회전 제스처이다(915)(예를 들어, 도 5u의 회전자 제스처(562)).
일부 실시예에서, 제1 사용자 인터페이스 네비게이션 설정 제스처는 일정 거리만큼 분리되는 제1 손가락 접촉과 동시의 제2 손가락 접촉을 포함하고, 제1 손가락 접촉과 제2 손가락 접촉 간의 거리는 중심점을 포함한다. 제1 손가락 접촉과 제2 손가락 접촉은 중심점을 중심으로 터치-감지형 표면 상에서 회전한다(916). 예를 들어, 제1 및 제2 손가락 접촉(562-1 및 562-2)을 포함하는 도 5u의 회전자 제스처(562)를 참조하면, 이 제1 및 제2 손가락 접촉(562-1 및 562-2)은 제1 손가락 접촉과 제2 손가락 접촉 사이의 가상 중심점을 중심으로 터치-감지형 표면 상에서 회전한다(562-3 및 562-4). 유의할 점은, 이들 제스처는 인비주얼 다이얼(invisible dial), 회전자 또는 컨트롤의 터닝(turning)을 시뮬레이션한다는 것이다.
사용자 인터페이스 네비게이션 설정 제스처와 연관된 회전은 시계방향/반시계방향식으로 될 수 있다. 그러나, 일부 실시예에서 변경용 사용자 인터페이스 옵션 및 설계 고려사항에 따라서, 사용자 인터페이스 네비게이션 설정 제스처는 필요하거나 적절하다면 언제든지 오른쪽/왼쪽 또는 위/아래 방향으로 수행될 수도 있다.
터치-감지형 표면 상의 제1 사용자 인터페이스 네비게이션 설정 제스처의 검출에 응답하여, 디바이스는 현재 네비게이션가능 유닛 타입을 제1 네비게이션가능 유닛 타입으로부터 복수의 네비게이션가능 유닛 타입에서 선택된 제2 네비게이션가능 유닛 타입으로 변경하고, 제2 네비게이션가능 유닛 타입에 관한 접근성 정보를 출력한다(918).
현재 네비게이션가능 유닛 타입을 제1 네비게이션가능 유닛 타입에서 제2 네비게이션가능 유닛 타입으로 변경한 후에, 디바이스는 터치-감지형 표면 상의 손가락에 의한 제2 사용자 인터페이스 네비게이션 제스처를 검출한다(920). 제2 사용자 인터페이스 네비게이션 제스처는 제1 사용자 인터페이스 네비게이션 제스처와 실질적으로 동일하다(예를 들어, 도 5v의 사용자 제스처(564)를 참조해 보면, 이 사용자 제스처(564)는 도 5k의 제스처(544)와 동일한 타입의 제스처, 즉, 하향 스와이프 또는 깜빡임 제스처이다). 터치-감지형 표면 상의 손가락에 의한 이러한 제2 사용자 인터페이스 네비게이션 제스처의 검출에 응답하여, 디바이스는 현재 네비게이션가능 유닛 타입에 따라 복수의 사용자 인터페이스 요소를 네비게이션하는데, 현재 네비게이션가능 유닛 타입은 제2 네비게이션가능 유닛 타입으로 설정된다(922). 예를 들면, 도 5w의 텍스트 커서(532)의 위치는, 현재 네비게이션가능 유닛 타입에 따라, 한 단어 앞으로, 즉, 텍스트 스트링 "client"의 시작부분에서 이름 "li"의 시작부분으로 이동하였다(즉, 단어 단위의 네비게이션).
그 다음, 일부 실시예에서, 디바이스는 터치-감지형 표면 상의 제2 사용자 인터페이스 네비게이션 설정 제스처를 검출할 수 있다(924). 제2 사용자 인터페이스 네비게이션 설정 제스처는 터치-감지형 표면 상의 복수의 사용자 인터페이스 요소 중 임의의 사용자 인터페이스 요소에 대응하는 위치와의 접촉과 독립적이다. 제1 사용자 인터페이스 네비게이션 설정 제스처는 연관된 방향을 가지고(예를 들면, 도 5u의 회전자 제스처(562)는 반시계 방향으로 되어 있음) 제2 사용자 인터페이스 네비게이션 설정 제스처는 제1 사용자 인터페이스 네비게이션 설정 제스처의 방향과 실질적으로 반대인 연관된 방향을 갖는다(예를 들어, 도 5x의 회전자 제스처(566)는 시계 방향으로 되어 있음). 디바이스는 제2 사용자 인터페이스 네비게이션 설정 제스처의 검출에 응답하여, 현재 네비게이션가능 유닛 타입을 제2 네비게이션가능 유닛 타입(예를 들면, 단어)에서 제1 네비게이션가능 유닛 타입(예를 들면, 문자)으로 변경하고, 제1 네비게이션가능 유닛 타입에 관한 접근성 정보를 출력한다(예를 들어, "문자"를 출력함). 도 5y 및 5z 또한 참조하여 보면, 회전자 제스처(566)의 결과로서, 현재 네비게이션가능 유닛 타입은 문자로 설정되고 제스처(568)는 텍스트 커서(532)를 단어 "li"의 "l"과 "i" 사이의 위치로 한 문자 앞으로 이동한다.
일부 실시예에서, 현재 네비게이션가능 유닛 타입은 컨텍스트-의존형이고, 현재 포커스는 복수의 사용자 인터페이스 요소 중 하나의 사용자 인터페이스 요소 상에 있다(928). 이들 실시예에서는, 디바이스가 복수의 사용자 인터페이스 요소 중 현재 포커스를 갖는 사용자 인터페이스 요소의 타입에 기초하여 현재 네비게이션가능 유닛 타입을 변경한다(930). 예를 들면, 사용자는 회전자 설정에 따라서 웹 페이지에서 링크 단위로(link-by-link) 움직일 수 있지만, 그 애플리케이션 행위(application behavior)는 스톱워치 시간 기록 애플리케이션(stopwatch time keeping application)에서는 전혀 부합되지 않을 것이다(would make no sense). 따라서, 접근성 사용자 인터페이스가 현재 네비게이션가능 유닛 타입을 현재 포커스를 가지는 사용자 인터페이스 요소에 적절한 설정으로 변경하여, 사용자가 그 시점에서 인터렉션하고 있는 사용자 애플리케이션을 고려한다.
도 10a 내지 10c는 일부 실시예에 따른 사용자 인터페이스 컨테이너를 통해 네비게이션하기 위한 접근성 방법을 도시하는 흐름도이다. 방법(1000)은 접근성 모듈(129)에 관련하여 디스플레이 및 터치-감지형 표면을 가지는 다기능 디바이스(예를 들어, 도 3의 300)와 같은 전자 디바이스에서 수행된다. 방법(1000)의 일부 동작은 조합될 수 있고/거나 일부 동작의 순서가 변경될 수 있다.
일부 실시예에서, 터치-감지형 표면은 디스플레이로부터 분리된다. 일부 실시예에서, 터치-감지형 표면은 터치 패드이다(예를 들어, 도 3의 355).
일부 실시예에서, 디스플레이는 터치 스크린 디스플레이(예를 들어, 도 2의 112)이고, 터치-감지형 표면은 디스플레이 상에 있다. 일부 실시예에서, 방법은 터치 스크린 디스플레이를 가지는 휴대용 다기능 디바이스에서 수행된다(예를 들어, 휴대용 다기능 디바이스(100)).
이하 기술될 바와 같이, 방법(1000)은 복잡한 비주얼 디스플레이를 통하여 네비게이션하는 데에 컨테이너를 이용하기 위한 효율적인 방식을 제공한다. 방법은 눈이 나쁜 사용자가 디스플레이 및 터치-감지형 표면을 가지는 전자 디바이스를 이용할 경우 그 사용자의 인식 부담을 덜어줌으로써, 보다 효율적인 인간-머신 인터페이스를 생성한다. 배터리-구동형 디바이스들에서는, 사용자가 보다 빠르고 효율적이게 네비게이션할 수 있게 해줌으로써 전력은 절약하고 배터리 충전 간의 시간 간격은 늘어난다.
디바이스는 디스플레이의 적어도 제1 부분을 터치-감지형 표면으로 매핑한다(1001)(예를 들어, 도 6b의 윈도우(612); 도 6h의 윈도우(634)).
디바이스는 디스플레이 상의 복수의 사용자 인터페이스 컨테이너를 동시에 디스플레이한다(1002)(예를 들어, 도 6b의 윈도우(612)는 복수의 컨테이너를 포함하고; 도 6h의 윈도우(634)는 복수의 컨테이너를 포함한다).
일부 실시예에서, 복수의 사용자 인터페이스 컨테이너는 사용자 인터페이스 컨테이너의 계층구조를 포함한다(1004). 예를 들어, UI(600B 내지 600D)를 참조하여 보면, 이 언급한 3개의 영역은 계층구조를 형성한다. 윈도우(612)는 제1 레벨에 있고, 윈도우(612) 중 UI(600C)의 현재 컨테이너 표시자(614-2)로 표시된 영역은 하위 레벨인 제2 레벨에 있고, 윈도우(612) 중 UI(600D)의 현재 컨테이너 표시자(614-3) 내의 영역은 그 계층 구조에서 더 하위 레벨인 제3 레벨에 있다.
디바이스는 복수의 사용자 인터페이스 컨테이너 중 제1 사용자 인터페이스 컨테이너를 선택하는 사용자 인터페이스 컨테이너 선택 이벤트를 검출한다(1006)(예를 들어, UI(600B)의 사용자 인터페이스 컨테이너 선택 이벤트(616)는 윈도우(612) 중 UI(600C)의 현재 컨테이너 표시자(614-2)로 표시된 영역을 선택한다). 사용자 인터페이스 컨테이너 선택 이벤트에 대하여 임의의 적절한 제스처가 사용될 수 있다. 일부 실시예에서, 두-손가락 스와이프 제스처(616)와 같은, 터치-감지형 표면에 대한 특정 제스처가 이러한 목적으로 이용된다.
일부 실시예에서, 디바이스는 사용자 인터페이스 컨테이너 선택 이벤트의 검출에 응답하여 제1 사용자 인터페이스 컨테이너와 연관된 접근성 정보를 출력한다(1008). 예를 들면, 도 6c에서, 표시자(614-2)에 의해 윤곽이 설정된(outlined) 컨테이너에 연관된 청취가능 정보는 음성 단어 "컨테이너, 3개의 항목과 인터렉트함"일 수 있다.
일부 실시예에서, 디바이스는 사용자 인터페이스 컨테이너 선택 이벤트의 검출에 응답하여 제1 사용자 인터페이스 컨테이너(예를 들어, 도 6c의 현재 컨테이너 표시자(614-2))를 시각적으로 강조한다(highlight)(1010). 일부 실시예에서, 진한색의 보더가, 주어진 사용자 인터페이스 컨테이너는 현재 선택된 컨테이너임을 표시한다.
일부 실시예에서, 제1 사용자 인터페이스 컨테이너는 복수의 사용자 인터페이스 요소를 포함한다(1012)(예를 들어, 도 6c에서, 표시자(614-2)에 의해 윤곽이 설정된 컨테이너는 2개의 버튼과 스크롤하는 텍스트 박스를 포함한다).
일부 실시예에서, 복수의 사용자 인터페이스 요소 중 다중 UI 요소는 제1 사용자 인터페이스 컨테이너 내의 한 방향으로 실질적으로 정렬된다(1014). 예를 들면, 도 6a-1에서, 사용자 인터페이스 요소(604-1, 604-2 및 604-3)는 컨테이너(604) 내에서 가로로 정렬된다. 다른 예로서, (도 6p 내지 6s의) UI(600P 내지 600S)에서, 줄(670-1 내지 670-6) 각각은 사용자 인터페이스 요소(단어)가 정렬된 방향을 따르는 축(671)을 가진다.
사용자 인터페이스 컨테이너 선택 이벤트의 검출에 응답하여, 디바이스는 디스플레이의 제1 부분을 터치-감지형 표면으로 매핑하는 것을 중단하고, 터치-감지형 표면과 동연적(coextensive) 또는 실질적으로 동연적이 되도록 제1 사용자 인터페이스 컨테이너를 비례하여 매핑한다(1016). 예를 들면, (도 6b의) 제스처(616)에 응답하여, (도 6c의) 매핑(620)은 (도 6b의) 매핑(615)을 대신한다.
일부 실시예에서, 사용자 인터페이스 컨테이너의 터치-감지 표면(603)으로의 매핑은 사용자 인터페이스 컨테이너가 터치-감지형 표면과 동연적 또는 실질적으로 동연적일 경우의 비례적인 매핑이다. 본원에서 사용되고 있는, 동연적이라는 것은 전체 사용자 인터페이스 컨테이너 영역이 전체 터치-감지 표면 영역에 비례적으로 매핑되는 것, 즉, 사용자 인터페이스 컨테이너의 100%가 사용자로부터 터치-기반 입력을 수용하도록 동작가능한 터치-감지 표면의 100%와 비례적으로 매핑되는 것을 의미한다. 본 명세서에서 이용되는 바와 같이, 실질적으로 동연하다는 것은 비례적 매핑이 사용자 인터페이스 컨테이너를 터치 감지형 표면의 상당한 부분(예를 들면, 80% 내지 100%)에 매핑하는 것을 의미한다.
일부 실시예들에 있어서, 사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동연하도록 하는 매핑은 컨테이너가 높이와 폭을 가지며, 컨테이너의 실질적으로 모든 영역이 컨테이너의 높이를 터치 감지형 표면의 높이로 스케일링하고, 컨테이너의 폭을 터치 감지형 표면의 폭으로 스케일링함으로써 터치 감지형 표면에 매핑된다는 것을 의미한다.
사용자 인터페이스 컨테이너를 터치 감지형 표면과 실질적으로 동연하도록 하는 매핑은, 현재 선택된 사용자 인터페이스 컨테이너의 영역으로 스케일링된 터치 감지형 표면의 영역에 의해, 디스플레이 상의 액세스가능한 네비게이션을 현재 선택된 사용자 인터페이스 컨테이너의 내부로 제한한다. 매핑된 터치 감지형 표면은 오직 현재 선택된 컨테이너를 나타낼 뿐이며 전체 디스플레이를 나타내는 것은 아니기 때문에, 사용자는 우연히 디스플레이의 그외의 영역들로 빠질 수 없다.
일부 실시예들에 있어서, 제1 사용자 인터페이스 컨테이너가 터치 감지형 표면과 실질적으로 동연하도록 비례적으로 매핑되는 동안에, 디바이스는 터치 감지형 표면 상의 제1 사용자 인터페이스 요소 네비게이션 제스처를 검출하며, 제1 사용자 인터페이스 요소 네비게이션 제스처는 복수의 사용자 인터페이스 요소 중 적어도 하나의 사용자 인터페이스 요소가 매핑되는 터치 감지형 표면의 영역과 접촉한다. 제1 사용자 인터페이스 요소 네비게이션 제스처의 검출에 응답하여, 디바이스는 또한 복수의 사용자 인터페이스 요소 중 적어도 하나의 사용자 인터페이스 요소와 연관된 접근성 정보를 출력한다(1018). 예를 들면, 사용자는 터치 감지형 표면 위에서 컨테이너 내의 사용자 인터페이스 요소들에 대응하는 위치들을 네비게이트하기 때문에, 액세스가능 사용자 인터페이스는 대응하는 사용자 인터페이스 요소들에 관한 가청(audible) 정보를 제공할 것이다. 예를 들면, 도 6e 및 6f의 사용자 인터페이스 네비게이션 제스처(629) 및 도 6i 및 도 6j의 사용자 인터페이스 네비게이션 제스처(640)에 관한 위의 설명을 참조한다.
일부 실시예들에 있어서, 제1 사용자 인터페이스 컨테이너가 터치 감지형 표면과 실질적으로 동연하도록 비례적으로 매핑되는 동안에, 디바이스는 터치 감지형 표면 상의 제2 사용자 인터페이스 요소 네비게이션 제스처를 검출하며, 제2 사용자 인터페이스 요소 네비게이션 제스처의 검출은 손가락 접촉의 검출 및 실질적으로 한 방향으로의 손가락 접촉의 이동의 검출을 포함한다. 실질적으로 한 방향으로의 손가락 접촉의 이동의 검출에 응답하여, 디바이스는 손가락 접촉의 이동에 따라 제1 사용자 인터페이스 컨테이너에서 현재 포커스를 이동시키고, 현재 포커스의 위치들은 다중 사용자 인터페이스 요소와 정렬된 제1 축 내에 실질적으로 제한된다(1020). 예를 들면, 도 6Q 및 6R의 사용자 인터페이스 네비게이션 제스처(674)에 관한 위의 설명을 참조한다.
또한, 본 실시예들에서, 디바이스가 한 방향에서 실질적으로 벗어난 손가락 접촉의 이동을 검출하면(예를 들면, 한 방향으로부터 미리결정된 각도(예를 들면, 30, 40, 또는 45°)보다 큰 방향으로 이동), 이에 응답하여, 디바이스는 현재 포커스를 제1 정렬된 축 내의 사용자 인터페이스 요소로부터, 제1 정렬된 축을 따르는 다중 사용자 인터페이스 요소 중 하나의 사용자 인터페이스 요소를 제외한 제1 사용자 인터페이스 컨테이너 내의 사용자 인터페이스 요소로 이동시킬 것이다(1022). 예를 들면, 도 6r 및 도 6s의 사용자 인터페이스 네비게이션 제스처(676)에 관한 위의 설명을 참조한다. 일부 실시예들에서, 디바이스는, 디바이스가 한 방향에 수직한 방향으로 미리정의된 양(예를 들면, 8㎜)보다 큰 이동을 검충하는 경우에 그 한 방향으로부터 실질적으로 벗어나는 손가락 접촉의 이동을 검출한다.
일부 실시예들에 있어서, 제1 사용자 인터페이스 컨테이너가 터치 감지형 표면과 실질적으로 동연하도록 비례적으로 매핑되는 동안에, 디바이스는 복수의 사용자 인터페이스 컨테이너 중 제2 사용자 인터페이스 컨테이너를 선택하는 또 다른 사용자 인터페이스 컨테이너 선택 이벤트를 검출한다. 또 다른 사용자 인터페이스 컨테이너 선택 이벤트의 검출에 응답하여, 디바이스는 터치 감지형 표면과 실질적으로 동연하도록 제1 사용자 인터페이스 컨테이너를 비례하여 매핑하는 것을 중단하고, 터치 감지형 표면과 실질적으로 동연하도록 제2 사용자 인터페이스 컨테이너를 비례하여 매핑한다(1024). 제2 사용자 인터페이스 컨테이너는 제1 사용자 인터페이스 컨테이너 바로 아래에 있는 사용자 인터페이스 컨테이너들의 계층구조의 레벨에 있다. 예를 들면, 제스처(618)(도 6c)에 응답하여, 매핑(624)(도 6d)이 매핑(620)(도 6c)을 대체한다.
일부 실시예들에 있어서, 디바이스가 제1 사용자 인터페이스 컨테이너를 선택해제(deselect)하는 사용자 인터페이스 컨테이너 네비게이션 이벤트를 검출하면, 디바이스는 터치 감지형 표면과 실질적으로 동연하도록 제1 사용자 인터페이스 컨테이너를 비례하여 매핑하는 것을 중단하고, 디스플레이의 제1 부분을 터치 감지형 표면으로 다시 매핑한다(1026). 예를 들면, 사용자 인터페이스 컨테이너 선택해제 이벤트(628)를 검출한 것에 응답하여(도 6f), 현재의 컨테이너 지시자(614-4)에 의해 하일라이트된 사용자 인터페이스 컨테이너는, 그것이 도 6e에서 매핑되었던 것처럼(625), 도 6f에서 터치 감지형 표면(603)에 다시 매핑된다. 마찬가지로, 도 6c의 제스처(618)가 (오른쪽으로의 두 손가락 스와이프(swipe) 제스처가 아니라) 왼쪽으로의 두 손가락 스와이프 제스처였다면, 매핑(615)(도 6b)은 매핑(620)(도 6c)을 대체했을 것이다.
일부 실시예들에 있어서, 디바이스가 사용자 인터페이스 컨테이너 선택 이벤의 검출에 응답하여, 사용자 인터페이스 컨테이너들의 계층구조를 트래버스 다운한다(1028). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택 이벤트는 다중 손가락 제스처이다(1030). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택 이벤트는 다중 손가락 핀칭해제(depinching) 제스처이다(1032). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택 이벤트는 다중 손가락 스와이프 제스처이다(1034). 예를 들면, 전술한바와 같이, 디바이스는 오른쪽으로의 두 손가락 스와이프 제스처(616(도 6b), 618(도 6c), 및 622(도 6d))에 응답하여 컨테이너들의 계층구조를 트래버스 다운한다.
일부 실시예들에 있어서, 디바이스는 사용자 인터페이스 컨테이너 선택해제 이벤트의 검출에 응답하여, 사용자 인터페이스 컨테이너들의 계층구조를 트래버스 업한다(1036). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택해제 이벤트는 다중 손가락 제스처이다(1038). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택해제 이벤트는 다중 손가락 핀칭 제스처이다(1040). 일부 실시예들에서, 사용자 인터페이스 컨테이너 선택해제 이벤트는 다중 손가락 스와이프 제스처이다(1042). 예를 들면, 전술한바와 같이, 디바이스는 왼쪽으로의 두 손가락 스와이프 제스처(628, 도 6f)에 응답하여 컨테이너들의 계층구조를 트래버스 업한다.
도 11a - 11b는 일부 실시예들에 따라 다중 손가락 경계 박스 내의 포인트 주위에서 확대를 수행하는 접근성 방법을 도시하는 흐름도들이다. 방법(1100)은 접근성 모듈(129)과 함께 디스플레이 및 터치 감지형 표면을 갖는 다기능 장치(예를 들면, 도 3의 300)와 같은 전자 디바이스에서 수행된다. 방법(1100)의 일부 동작들은 조합될 수 있고 및/또는 일부 동작들의 순서는 변경될 수도 있다.
일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이(예를 들면, 도 2의 112)이며, 터치 감지형 표면은 디스플레이 위에 있다. 일부 실시예들에서, 방법은 터치 스크린 디스플레이를 갖는 휴대용 다기능 장치(예를 들면, 휴대용 다기능 장치(100))에서 수행된다.
이하에서 기술되는 바와 같이, 방법(1100)은 다중 손가락 제스처에 응답하여 터치 스크린 디스플레이 상에서, 디스플레이의 에지들 또는 코너들에서의 포인트들을 포함하는 임의의 포인트 주위를 확대하는 효율적인 방법을 제공한다. 본 방법은 터치 스크린 디스플레이를 갖는 전자 디바이스를 사용할 때 손상된 시력을 갖는 사용자에 대한 인지 부담감을 감소시킴으로써, 더욱 효율적인 인간-머신 인터페이스를 생성한다. 배터리 동작되는 장치들의 경우에, 사용자가 더욱 빠르고 보다 효율적으로 네비게이트할 수 있게 하는 것은 전력을 보존하고 배터리 충전들간의 시간을 증가시킬 수 있다.
디바이스는 터치 스크린 디스플레이 상에 제1 배율로 사용자 인터페이스의 콘텐츠를 디스플레이한다(1102). 일부 실시예들에서, 제1 배율은 확대되지 않은 디폴트 뷰에 대응한다(1104)(예를 들어, 도 4a 참조).
디바이스는 터치 스크린 디스플레이 상의 제1 다중 손가락 제스처를 검출하고(1106), 제1 다중 손가락 제스처의 검출은 터치 스크린 디스플레이 상에서 동시의 다중 손가락 접촉의 검출을 포함한다. (예를 들면, 터치 스크린(112) 상에서의 동시의 세 손가락 접촉들(591-1a, 591-1b, 및 591-1c)에 의해 다중 손가락 제스처(591)가 검출되는 도 5oo를 참조.)
일부 실시예들에서, 제1 다중 손가락 제스처는 세 손가락 제스처이다(1108). 일부 실시예들에서, 제1 다중 손가락 제스처는 세 손가락의 두번 누르기 제스처이다(1110). (예를 들면, 다중 손가락 제스처(591)가 터치 스크린(112) 상에서의 동시의 세 손가락 접촉들(591-1a, 591-1b, 및 591-1c)에 의해 검출되고, 세 손가락 두번 누르기 제스처를 나타낼 수 있는 도 5oo를 참조.)
디바이스는 동시의 다중 손가락 접촉에 대한 경계 박스를 결정한다(1112). 일부 실시예들에서, 경계 박스는 직사각형 경계 박스이다(1114). (예를 들면, 동시의 다중 손가락 접촉들(591-1a, 591-1b, 및 591-1c)에 대해 직사각형 경계 박스(592-1)가 결정되는 도 5oo를 참조.)
터치 스크린 디스플레이 상의 제1 다중 손가락 제스처의 검출에 응답하여, 디바이스는 터치 스크린 디스플레이 상의 제1 배율보다 큰 제2 배율로 경계 박스 내의 포인트 주위의 사용자 인터페이스 내의 콘텐츠를 확대한다(1116). 예를 들면, 다중 손가락 제스처(591)(도 5oo)는 UI 500II(도 5 ii)내의 콘텐츠를 제2 배율(예를 들면, 도 5jj의 UI 500JJ)로 확대할 수 있다. 경계 박스가 터치 스크린 디스플레이의 중심에 위치할 때(예를 들면, 도 5oo에서 경계 박스(592-1)의 무게 중심에 있는 포인트(593-1a)를 참조), 경계 박스 내의 포인트는 경계 박스 내의 디폴트 위치(예를 들면, 무게 중심)에 있다. 경계 박스가 터치 스크린 디스플레이의 중심으로부터 멀어지게 위치되면, 경계 박스 내의 포인트는 경계 박스 내의 디폴트 위치로부터 경계 박스의 각각의 에지를 향하여 경계 박스가 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향한 변위에 대응하는 양만큼 변위된다. (예를 들면, 터치 스크린(112)의 오른쪽 에지에 경계 박스(592-2)가 가까와져서, 포인트(593-1b)는 경계 박스(592-2)의 오른쪽 에지에 가까와지는 도 5oo를 참조.)
일부 실시예들에서, 경계 박스 내의 포인트 주위의 사용자 인터페이스 내의 콘텐츠의 확대는 경계 박스 내의 포인트 주위의 줌인(zooming-in) 애니메이션의 디스플레이를 포함한다(1118).
일부 실시예들에서, 경계 박스가 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향해 변위되는 거리가 증가함에 따라 증가하는 양 만큼, 경계 박스 내의 포인트는 경계 박스의 무게 중심으로부터 경계 박스의 각각의 에지를 향해 변위된다(1120)(예를 들면, 경계 박스(592-1)보다 터치 스크린(112)의 오른쪽 에지에 가까와지면 포인트(593-1b)가 경계 박스(592-2)의 오른쪽 에지에 가까와지는 도 5oo의 경계 박스(592-2)를, 경계 박스(592-2)보다 터치 스크린(112)의 오른쪽 에지에 더욱 가까와져서 포인트(593-1c)가, 경계 박스(592-2)의 에지였던 포인트(593-1b)보다 경계 박스(592-3)의 오른쪽 에지에 더욱 가까와지는 도 5oo의 경계 박스(592-3)와 비교).
일부 실시예들에서, 경계 박스가 터치 스크린 디스플레이의 중심으로부터 터치 스크린 디스플레이의 대응하는 에지를 향해 변위되는 거리에 비례하는 양 만큼, 경계 박스 내의 포인트는 경계 박스 내의 포인트로부터 경계 박스의 각각의 에지를 향해 변위된다(1122)(예를 들면, 도 5oo 내에서, 경계 박스(592-2)가 터치 스크린(112)의 중심에 보다 가까운, 경계 박스(592-2) 내의 포인트(593-1b)와, 도 5oo 내에서, 경계 박스(592-2)보다 터치 스크린(112)의 중심으로부터 더 멀리 있어서 포인트(593-1c)가, 경계 박스(592-2)의 에지에 있던 포인트(593-1b)보다 경계 박스(592-3)의 오른쪽 에지에 비례하여 더욱 가까운, 경계 박스(592-3) 내의 포인트(593-1c)를 비교).
일부 실시예들에서, 경계 박스의 에지 각각이 터치 스크린 디스플레이의 대응하는 에지에 위치하는 경우에, 경계 박스 내의 포인트는 경계 박스 내의 포인트로부터 경계 박스의 에지 각각으로 변위된다(1124)(예를 들어, 도 5oo의 경계 박스(592-3) 내의 포인트(593-1c); 도 5oo의 경계 박스(592-5) 내의 포인트(593-1e); 및 도 5pp의 경계 박스(592-8) 내의 포인트(593-1h)를 참조).
일부 실시예들에서, 사용자 인터페이스의 콘텐츠를 터치 스크린 디스플레이 상에서 제2 배율로 디스플레이하는 동안에, 디바이스는 터치 스크린 디스플레이 상의 제2 다중 손가락 제스처를 검출한다. 터치 스크린 디스플레이 상의 제2 다중 손가락 제스처의 검출에 응답하여, 디바이스는 사용자 인터페이스 내의 콘텐츠를 제1 배율로 확대해제한다(1126). 예로서, 또 다른 다중 손가락 제스처(591)(도 5oo)가 UI 500JJ(도 5jj)내의 콘텐츠를 제1 배율(예를 들면, 도 5ii의 UI 500II)로 확대해제할 수 있다. 이 실시예들에서, 이하의 것중 임의의 것이 또한 구현될 수 있다: 제2 다중 손가락 제스처는 세 손가락 제스처(1128); 제2 다중 손가락 제스처는 세 손가락의 두번 누르기 제스처(1130); 제2 다중 손가락 제스처는 제1 다중 손가락 제스처와 동일하거나 실질적으로 동일(1132); 및/또는 사용자 인터페이스 내의 콘텐츠의 확대해제는 줌 아웃(zooming-out) 애니메이션의 디스플레이를 포함(1134).
도 12a-12b는 일부 실시예들에 따른 한 손가락 푸쉬 패닝(single-finger push panning)을 위한 접근 방법을 도시하는 흐름도들이다. 방법(1200)은 접근성 모듈(129)과 함께 디스플레이 및 터치 감지형 표면을 갖는 다기능 장치(예를 들면, 도 3의 300)와 같은 전자 디바이스에서 수행된다. 방법(1200)의 일부 동작들은 조합될 수 있고 및/또는 일부 동작들의 순서는 변경될 수도 있다.
일부 실시예들에서, 디스플레이는 터치 스크린 디스플레이(예를 들면, 도 2의 112)이며, 터치 감지형 표면은 디스플레이 위에 있다. 일부 실시예들에서, 방법은 터치 스크린 디스플레이를 갖는 휴대용 다기능 장치(예를 들면, 휴대용 다기능 장치(100))에서 수행된다.
이하에서 설명되는 바와 같이, 방법(1200)은 콘텐츠를 스크롤하기 위한 다중 손가락 및 한 손가락 제스처들 모두를 이용하는 효율적인 방법을 제공한다. 본 방법은 터치 스크린 디스플레이를 갖는 전자 디바이스를 사용할 때 손상된 시력을 갖는 사용자에 대한 인지 부담감을 감소시킴으로써, 더욱 효율적인 인간-머신 인터페이스를 생성한다. 배터리 동작되는 장치들의 경우에, 사용자가 더욱 빠르고 보다 효율적으로 네비게이트할 수 있게 하는 것은 전력을 보존하고 배터리 충전들간의 시간을 증가시킬 수 있다.
디바이스는 터치 스크린 디스플레이 상에 사용자 인터페이스 내의 콘텐츠를 디스플레이한다(1202). 일부 실시예들에서, 터치 스크린 디스플레이 상의 사용자 인터페이스 내의 콘텐츠를 디스플레이하는 것은 사용자 인터페이스 내의 콘텐츠의 확대된 뷰를 디스플레이하는 것을 포함한다(1204). (예를 들면, 도 5jj 참조)
디바이스는 터치 스크린 디스플레이 상의 복수의 동시 손가락 접촉을 검출한다(1206). 일부 실시예들에서, 복수의 동시 손가락 접촉은 세 손가락의 동시 접촉이다(1208). (예를 들면, 도 5jj의 세 손가락 이동 제스처(582)를 참조)
디바이스는 터치 스크린 디스플레이 상의 복수의 동시 손가락 접촉의 이동을 검출한다(1210). (예를 들면, 도 5jj의 세 손가락 이동 제스처(582)를 참조)
디바이스는 복수의 동시 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤한다(1212)(예를 들면, 디바이스는 복수의 동시 손가락 접촉의 무게 중심의 이동을 추적하거나, 또는 대안적으로 복수의 동시 손가락 접촉 중 한 손가락 접촉의 무게 중심의 이동을 추적하는, 사용자 인터페이스의 2차원 이동을 수행한다). (예를 들면, 도 5jj에 도시된 세 손가락 이동 제스처(582)에 응답하여, 접근성 사용자 인터페이스는, 사용자 인터페이스 애플리케이션 아이콘들인 주식(149-2), 음성 메모(142), 알람(149-4), 및 사전(149-5)을 표시하는 대신에, 접근성 사용자 인터페이스는 도 5kk 내에 디스플레이의 상부에는 애플리케이션 아이콘들인 사진(144)과 카메라(143)를, 그리고 디스플레이의 하부에는 주식(149-2)과 음성 메모(142)를 표시하도록 패닝됨을 참조.)
일부 실시예들에서, 복수의 동시 손가락 접촉 중 하나를 제외한 모든 손가락 접촉의 리프트 오프(lift off)를 검출하기 전에, 디바이스는 남아 있는 적어도 두 손가락 접촉을 계속 검출하면서 복수의 동시 손가락 접촉 중 일부의 리프트 오프를 검출한다(예를 들면, 동시의 세 손가락 접촉의 경우에, 디바이스는 동시의 세 손가락 접촉들 중 하나의 리프트 오프를 검출한다). 디바이스는 터치 스크린 디스플레이 상의 남아 있는 적어도 두 손가락 접촉의 이동을 검출하고, 디바이스는 남아 있는 적어도 두 손가락 접촉의 이동에 따라 사용자 인터페이스 내의 콘텐츠를 스크롤한다(예를 들면, 남아 있는 적어도 두 손가락 접촉의 무게 중심의 이동을 추적하거나, 또는 남아 있는 적어도 두 손가락 접촉 중 한 손가락 접촉의 무게 중심의 이동을 추적하는, 사용자 인터페이스의 2차원적 이동)(1214).
디바이스는 남아 있는 한 손가락 접촉을 계속 검출하면서 복수의 동시 손가락 접촉 중 하나를 제외한 모든 손가락 접촉의 리프트 오프를 검출한다(1216)(예를 들면, 도 5qq에서, 디바이스는 복수의 동시 손가락 접촉(597-1) 중 하나를 제외한 모든 손가락 접촉의 리프트 오프를 검출한다). 예를 들면, 동시의 세 손가락 접촉의 경우에, 남아있는 한 손가락 접촉은 동시의 세 손가락 접촉 중 다른 두개의 접촉의 리프트 오프가 검출된 후에 남아 있는 손가락 접촉이다.
남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 중심 부분(예를 들면, 터치 스크린 디스플레이의 중간 60%)에 위치하는 경우에, 디바이스는 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단한다(1218)(예를 들면, 도 5qq에서, 남아 있는 한 손가락 접촉(597-1)이 터치 스크린(112)의 미리 정의된 중심 부분(598)에 위치하는 경우에 사용자 인터페이스 내의 콘텐츠의 스크롤이 중단된 사용자 인터페이스를 참조).
디바이스는 남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 경계부에 위치하는 경우에, 사용자 인터페이스 내의 콘텐츠를 스크롤한다(1220)(예를 들면, 미리정의된 중심 부분과 터치 스크린 디스플레이의 에지들 사이의 터치 스크린 디스플레이의 나머지 40%). (예를 들면, 도 5qq에서, 나머지 한 손가락 접촉(597-2)이 미리 정의된 경계부(599)의 내부 에지(599-1) 근처에 위치하여, 사용자 인터페이스 내의 콘텐츠의 스크롤이 터치 스크린(112)의 에지로부터 멀어지게 한다는 것을 참조.)
일부 실시예들에서, 디바이스는 남아 있는 단일 손가락 접촉이 터치 스크린 디스플레이의 미리 정의된 경계부에 위치하는 경우에, 사용자 인터페이스 내의 콘텐츠를 스크롤하며(1222), 이것은 남아 있는 한 손가락 접촉에 가장 가까운 터치 스크린 디스플레이의 에지로부터 멀리 사용자 인터페이스 내의 콘텐츠를 스크롤하는 것을 포함한다(예를 들면, 남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 왼쪽 에지에 가장 가까우면 사용자 인터페이스를 왼쪽에서 오른쪽으로 이동하거나; 남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 오른쪽 에지에 가장 가까우면 사용자 인터페이스를 오른쪽에서 왼쪽으로 이동하거나; 남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 상부쪽 에지에 가장 가까우면 사용자 인터페이스를 상부에서 하부로 이동하거나; 또는 남아 있는 한 손가락 접촉이 터치 스크린 디스플레이의 하부쪽 에지에 가장 가까우면 사용자 인터페이스를 하부에서 상부로 이동.) 즉, 남아 있는 한 손가락 접촉이 스크린의 왼쪽 에지에 가장 가까우면, 사용자 인터페이스 내의 콘텐츠는 스크린의 오른쪽 에지를 향하여 스크롤할 것이며, 터치 스크린 디스플레이의 에지의 왼쪽 에지 너머에 있는 사용자 인터페이스 콘텐츠를 나타낼 것이다.
일부 실시예들에서, 사용자 인터페이스 내의 콘텐츠를 남아 있는 한 손가락 접촉에 가장 가까운 터치 스크린 디스플레이의 에지로부터 멀게 스크롤하는 것은, 남아 있는 한 손가락 접촉과, 남아 있는 한 손가락 접촉에 가장 가까운 터치 스크린 디스플레이의 에지 사이의 거리에 역비례하여 대응하는 스크롤 속도를 갖는다(1224)(즉, 스크롤 속도는, 남아 있는 한 손가락 접촉이 남아 있는 한 손가락 접촉에 가장 가까운 터치 스크린 디스플레이의 에지에 더욱 가깝게 이동함에 따라 증가한다). (예를 들면, 도 5qq에서, 나머지 한 손가락 접촉(597-3)이 사용자 인터페이스 내에서 콘텐츠를 왼쪽에서 오른쪽으로 스크롤하는 것보다 더 느리게 나머지 한 손가락 접촉(597-2)이 사용자 인터페이스 내에서 콘텐츠를 왼쪽에서 오른쪽으로 스크롤할 것임을 참조.)
일부 실시예들에서, 스크롤 속도의 증가는, 나머지 한 손가락 접촉의 이동 속도보다는, 터치 스크린 디스플레이의 미리 정의된 경계부의 나머지 한 손가락 접촉의 위치에 기초한다.
일부 실시예들에서, 복수의 동시 손가락 접촉 중 하나를 제외한 모든 손가락 접촉의 리프트 오프를 검출한 후에, 디바이스는 터치 스크린 디스플레이의 미리 정의된 경계부에 남아 있는 한 손가락 접촉의 리프트 오프를 검출하고, 터치 스크린 디스플레이의 미리 정의된 경계부에 남아 있는 한 손가락 접촉의 리프트 오프의 검출에 응답하여, 디바이스는 사용자 인터페이스 내의 콘텐츠의 스크롤을 중단한다(1226).
공통 코어 제스처 세트
일부 실시예들에서, 전술한 제스처들의 세트 중 일부 또는 전체는 폼 팩터(form factor)들이 상이한 액세스가능 전자 디바이스들에서 사용될 수 있다. 예를 들면, 위치 독립적인 플릭/스와이프(flick/swipe) 제스처들, 네비게이션 설정 제스처들(예를 들면, 회전 제스처들), 및 분리 제스처들와 같은 보이스 오버 네비게이션(voice over navigation)을 위한 제스처들의 그룹은 트랙 패드 및/또는 터치 스크린을 갖는 데스크탑 컴퓨터들, 트랙 패드 및/또는 터치 스크린을 갖는 랩탑 컴퓨터들, 트랙 패드 및/또는 터치 스크린을 갖는 태블릿 컴퓨터들, 및 트랙 패드 및/또는 터치 스크린을 갖는 휴대용 다기능 디바이스들(예를 들면, 캘리포니아 쿠퍼티노에 위치한 애플 인크. 회사의 iPhone? 및 iPod Touch? 디바이스들과 같은 휴대용 디바이스들)을 위한 액세스 가능 사용자 인터페이스들의 일부로서 구현될 수 있다. 이들 폼 팩터들의 전체에서 사용되는 제스처들의 그룹은 액세스가능한 디바이스들을 위한 공통 코어 제스처 세트를 형성한다.
그러한 공통 코어 제스처 세트는 다수의 디바이스 폼 팩터들에 걸쳐 동일한 방식으로 동작하는, 일관적이고 학습이 용이한 인터페이스를 제공한다. 이러한 공통성은 사용자들, 특히 사용자들이 그들이 사용하는 액세스가능 디바이스의 각각의 유형을 찾아내는 것에서 새로운 사용자 인터페이스를 학습할 필요가 없기 때문에, 물리적 또는 학습적 핸디캡을 갖는 사용자들에 대한 인지 부담감을 감소시킨다.
일부 실시예들에서, 접근가능성에 대한 공통 코어 제스처 세트는 실행가능 명령어들이 저장된 컴퓨터 판독가능 기억 매체에 구현된다. 실행가능 명령어들은 접근가능성을 위한 공통 코어 제스처 세트를 인지하기 위한 명령어들을 포함한다. 명령어들이 터지 감지형 표면을 갖는 전자 디바이스에 의해 실행될 때, 명령어들은 디바이스로 하여금 공통 코어 제스처 세트로부터 선택된 제스처들을 인지하고 응답하게 한다. 컴퓨터 판독가능 기억 매체는, 트랙 패드 및/또는 터치 스크린을 갖는 데스크탑 컴퓨터들, 트랙 패드 및/또는 터치 스크린을 갖는 랩탑 컴퓨터들, 트랙 패드 및/또는 터치 스크린을 갖는 태블릿 컴퓨터들, 및 트랙 패드 및/또는 터치 스크린을 갖는 휴대용 다기능 디바이스들 중 2개 이상을 포함하는 복수의 액세스가능 디바이스 폼 팩터들에 설치되도록 구성된다.
일부 실시예들에서, 접근가능성을 위한 공통 코어 제스처 세트를 인지하기 위한 명령어들은 고속 랜덤 액세스 메모리, 플래시 메모리, 자기 기억 매체, 광 기억 매체, 및 그외의 유형의 불휘발성 메모리와 같은 복수의 컴퓨터 판독가능 기억 매체 유형들에 저장되도록 구성된다.
전술된 정보 처리 방법들에서의 단계들은 범용 프로세서들 또는 애플리케이션 특정 칩들과 같은, 정보 처리 장치 내의 하나 이상의 기능 모듈을 구동함으로써 구현될 수 있다. 이 모듈들, 이 모듈들의 조합들, 및/또는 일반적인 하드웨어(예를 들면, 도 1a, 1b 및 3에 대해 위에서 설명됨)와의 그들의 조합은 모두 본 발명의 보호 범위 내에 포함된다.
설명을 목적으로한 전술한 기재는 특정 실시예들을 참조로하여 기술되었다. 그러나, 위의 예시적인 설명은 총망라한 것으로서 의도하는 것은 아니며, 또는 본 발명을 개시된 정확한 형태들로 한정하는 것으로 의도하는 것도 아니다. 상기된 교시의 관점에서 다수의 수정들 및 변경들이 가능하다. 실시예들은 본 발명의 원리들 및 본 발명의 실제적인 응용들을 가장 잘 설명하기 위해 선택되고 기술되었으므로, 본 기술 분야의 당업자들이 본 발명 및 다양한 변형들을 갖는 다양한 실시예들을, 고찰되는 특별한 사용에 적합하게 되도록 가장 잘 이용하는 것을 가능하게 한다.
Claims (36)
- 터치 스크린 디스플레이를 갖는 전자 장치 상에 접근성을 제공하기 위한 방법으로서,
상기 터치 스크린 디스플레이 상에 사용자 인터페이스 내의 콘텐츠를 제1 배율로 디스플레이하는 단계;
상기 터치 스크린 디스플레이 상에서 제1 다중 손가락 제스처를 검출하는 단계 - 상기 제1 다중 손가락 제스처를 검출하는 단계는 상기 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 단계를 포함함 - ;
상기 터치 스크린 디스플레이 상에서 상기 제1 다중 손가락 제스처를 검출하는 것에 응답하여:
상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제1 다중 손가락 제스처가 종료되었다는 결정에 따라, 상기 터치 스크린 디스플레이 상에서 상기 사용자 인터페이스 내의 상기 콘텐츠의 제1 부분을 상기 제1 배율보다 큰 제2 배율로 확대하는 단계 - 상기 제2 배율은 미리 정의된 배율임 - ; 및
상기 제1 다중 손가락 제스처가 상기 터치 스크린 디스플레이 상에서 상기 움직임의 임계량보다 큰 움직임을 포함한다는 결정에 따라, 상기 터치 스크린 디스플레이 상에서 상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제1 부분을 상기 제1 배율보다 큰 제3 배율로 확대하는 단계 - 상기 제3 배율은 상기 제1 다중 손가락 제스처의 움직임의 크기에 기초하여 선택됨 -
를 포함하는 방법. - 제1항에 있어서,
상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제1 부분을 상기 제2 배율 또는 상기 제3 배율로 디스플레이하는 동안에, 상기 터치 스크린 디스플레이 상에서 제2 다중 손가락 제스처를 검출하는 단계; 및
상기 터치 스크린 디스플레이 상에서 상기 제2 다중 손가락 제스처를 검출하는 것에 응답하여, 상기 제1 부분과는 상이한 상기 콘텐츠의 제2 부분이 상기 터치 스크린 디스플레이 상에 상기 제2 배율 또는 상기 제3 배율로 디스플레이되도록 상기 제2 다중 손가락 제스처에 따라 상기 사용자 인터페이스를 패닝(panning)하는 단계 - 상기 콘텐츠의 상기 제2 부분은 상기 터치 스크린 디스플레이 상의 상기 제2 다중 손가락 제스처의 움직임의 크기에 기초하여 선택됨 -
를 더 포함하는, 방법. - 제1항에 있어서, 상기 제1 배율은 확대되지 않은 디폴트 뷰에 대응하는, 방법.
- 제1항에 있어서, 상기 제1 다중 손가락 제스처는 세 손가락 탭 제스처를 포함하는, 방법.
- 제1항에 있어서, 상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제1 다중 손가락 제스처가 종료되었다는 결정은 상기 제1 다중 손가락 제스처는 세 손가락 더블 탭 제스처인 결정을 포함하는, 방법.
- 제2항에 있어서, 상기 제2 다중 손가락 제스처는 상기 터치 스크린 디스플레이 상의 세 손가락 드래그 제스처인, 방법.
- 제1항에 있어서, 상기 터치 스크린 디스플레이 상의 상기 제1 다중 손가락 제스처를 검출하는 것에 응답하여 확대될 상기 콘텐츠의 상기 제1 부분은 상기 터치 스크린 디스플레이 상의 상기 제1 다중 손가락 제스처의 위치에 기초하여 결정되는, 방법.
- 제2항에 있어서,
상기 터치 스크린 디스플레이 상에 상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제2 부분을 상기 제2 배율 또는 상기 제3 배율로 디스플레이하는 동안,
상기 터치 스크린 디스플레이 상에서 제3 다중 손가락 제스처를 검출하는 단계 - 상기 제3 다중 손가락 제스처를 검출하는 단계는 상기 터치 스크린 디스플레이 상에서 동시적인 다중 손가락 접촉들을 검출하는 단계를 포함함 - ; 및
상기 터치 스크린 디스플레이 상에서 상기 제3 다중 손가락 제스처를 검출하는 것에 응답하여:
상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제3 다중 손가락 제스처가 종료되었다는 결정에 따라, 상기 터치 스크린 디스플레이 상에서 상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제2 부분을 제4 배율로 축소하는 단계; 및
상기 제3 다중 손가락 제스처가 상기 터치 스크린 디스플레이 상에서 상기 움직임의 임계량보다 큰 움직임을 포함한다는 결정에 따라, 상기 터치 스크린 디스플레이 상에서 상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제2 부분을 제5 배율로 축소하는 단계 - 상기 제5 배율은 상기 제3 다중 손가락 제스처의 움직임의 크기에 기초하여 선택됨 -
를 포함하는, 방법. - 제8항에 있어서, 상기 제3 다중 손가락 제스처는 세 손가락 탭 제스처를 포함하는, 방법.
- 제8항에 있어서, 상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제3 다중 손가락 제스처가 종료되었다는 결정은 상기 제3 다중 손가락 제스처는 세 손가락 더블 탭 제스처인 결정을 포함하는, 방법.
- 제8항에 있어서, 상기 제3 다중 손가락 제스처는 상기 제1 다중 손가락 제스처와 동일한 것인, 방법.
- 제8항에 있어서, 상기 사용자 인터페이스 내의 콘텐츠를 축소하는 단계는 줌 아웃(zoom-out) 애니메이션을 디스플레이하는 단계를 포함하는, 방법.
- 제1항에 있어서, 상기 제1 다중 손가락 제스처를 검출하는 단계는:
상기 터치 스크린 디스플레이 상에서 개별 접촉들(respective number of contacts)의 제1 누름(touchdown)을 검출하는 단계 - 상기 개별 접촉들은 하나보다 많음 - ;
상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 제1 떼어냄을 검출하는 단계; 및
상기 터치 스크린 디스플레이 상에서 상기 개별 접촉들의 제2 누름을 검출하는 단계
를 포함하는, 방법. - 제13항에 있어서,
상기 제1 다중 손가락 제스처는 상기 개별 접촉들의 제2 떼어냄을 검출하는 단계를 포함하고,
상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제1 다중 손가락 제스처가 종료되었다는 결정은 상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 상기 제2 떼어냄이 상기 움직임의 임계량 보다 큰 움직임이 검출되지 않고 검출되었다는 결정을 포함하고,
상기 제1 다중 손가락 제스처가 상기 터치 스크린 디스플레이 상에서 상기 움직임의 임계량보다 큰 움직임을 포함한다는 결정은 상기 터치 스크린 디스플레이 상에서 상기 개별 접촉들의 상기 제2 누름을 검출하는 단계 이후 그리고 상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 제2 떼어냄이 검출되기 이전에 상기 움직임의 임계량이 검출되었다는 결정을 포함하는, 방법. - 제1항에 있어서, 상기 제1 다중 손가락 제스처는 상기 제3 배율에 도달할 때까지의 상기 터치 스크린 디스플레이의 상부를 향한 이동을 포함하는, 방법.
- 제8항에 있어서, 상기 제4 배율은 확대되지 않은 디폴트 뷰에 대응하는, 방법.
- 제8항에 있어서, 상기 제4 배율은 상기 제1 배율에 대응하는, 방법.
- 제8항에 있어서, 상기 제3 다중 손가락 제스처를 검출하는 단계는:
상기 터치 스크린 디스플레이 상에서 개별 접촉들의 제1 누름을 검출하는 단계 - 상기 개별 접촉들은 하나보다 많음 - ;
상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 제1 떼어냄을 검출하는 단계; 및
상기 터치 스크린 디스플레이 상에서 상기 개별 접촉들의 제2 누름을 검출하는 단계
를 포함하는, 방법. - 제18항에 있어서,
상기 제3 다중 손가락 제스처는 상기 개별 접촉들의 제2 떼어냄을 검출하는 단계를 포함하고,
상기 터치 스크린 디스플레이 상에서 움직임의 임계량보다 크지 않게 발생하는 상기 동시적인 다중 손가락 접촉들의 떼어냄에 의해 상기 제3 다중 손가락 제스처가 종료되었다는 결정은 상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 상기 제2 떼어냄이 상기 움직임의 임계량 보다 큰 움직임이 검출되지 않고 검출되었다는 결정을 포함하고,
상기 제3 다중 손가락 제스처가 상기 터치 스크린 디스플레이 상에서 상기 움직임의 임계량보다 큰 움직임을 포함한다는 결정은 상기 터치 스크린 디스플레이 상에서 상기 개별 접촉들의 상기 제2 누름을 검출하는 단계 이후 그리고 상기 터치 스크린 디스플레이로부터의 상기 개별 접촉들의 제2 떼어냄이 검출되기 이전에 상기 움직임의 임계량이 검출되었다는 결정을 포함하는, 방법. - 제8항에 있어서, 상기 제3 다중 손가락 제스처는 상기 제5 배율에 도달할 때까지의 상기 터치 스크린 디스플레이의 하부를 향한 방향으로의 이동을 포함하는, 방법.
- 제1항에 있어서,
상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제1 부분을 상기 제2 배율로 디스플레이하는 동안에, 상기 터치 스크린 디스플레이 상에서 제4 다중 손가락 제스처를 검출하는 단계; 및
상기 터치 스크린 디스플레이 상에서 상기 제4 다중 손가락 제스처를 검출하는 것에 응답하여 - 상기 제4 다중 손가락 제스처는 상기 터치 스크린 디스플레이 상에서 상기 움직임의 임계량 보다 큰 움직임을 포함함 -, 상기 터치 스크린 디스플레이 상에서 상기 사용자 인터페이스 내의 상기 콘텐츠의 상기 제1 부분을 상기 제2 배율 보다 큰 제6 배율로 더 확대하는 단계 - 상기 제6 배율은 상기 제4 다중 손가락 제스처의 움직임의 크기에 기초하여 선택됨 -
를 더 포함하는, 방법. - 전자 장치로서,
터치 스크린 디스플레이;
하나 이상의 프로세서; 및
하나 이상의 프로그램
을 포함하고,
상기 하나 이상의 프로그램은 메모리 내에 저장되고, 상기 하나 이상의 프로세서에 의해 실행되도록 구성되고,
상기 하나 이상의 프로그램은 제1항 내지 제21항 중 어느 하나의 방법을 수행하기 위한 명령어들을 포함하는, 전자 장치. - 명령어들을 저장하는 컴퓨터 판독가능 저장 매체로서, 상기 명령어들은 터치 스크린 디스플레이를 갖는 액세스 가능한 전자 장치에 의해 실행되는 경우 상기 전자 장치로 하여금, 제1항 내지 제21항 중 어느 하나의 방법을 수행하게 하는, 컴퓨터 판독가능 저장 매체.
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
- 삭제
Applications Claiming Priority (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18482509P | 2009-06-07 | 2009-06-07 | |
US61/184,825 | 2009-06-07 | ||
US12/565,744 US9009612B2 (en) | 2009-06-07 | 2009-09-23 | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US12/565,746 US8681106B2 (en) | 2009-06-07 | 2009-09-23 | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US12/565,744 | 2009-09-23 | ||
US12/565,746 | 2009-09-23 | ||
US12/565,745 US8493344B2 (en) | 2009-06-07 | 2009-09-23 | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US12/565,745 | 2009-09-23 | ||
PCT/US2010/034109 WO2010144201A2 (en) | 2009-06-07 | 2010-05-07 | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127001631A Division KR101591450B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160018839A KR20160018839A (ko) | 2016-02-17 |
KR101753544B1 true KR101753544B1 (ko) | 2017-07-03 |
Family
ID=43300405
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127000663A KR101442929B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127001628A KR101509870B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127003523A KR20120047257A (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127001631A KR101591450B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020167002541A KR101753544B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
Family Applications Before (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020127000663A KR101442929B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127001628A KR101509870B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127003523A KR20120047257A (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
KR1020127001631A KR101591450B1 (ko) | 2009-06-07 | 2010-05-07 | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 |
Country Status (6)
Country | Link |
---|---|
US (7) | US8681106B2 (ko) |
EP (3) | EP2458492A3 (ko) |
JP (3) | JP5812988B2 (ko) |
KR (5) | KR101442929B1 (ko) |
AU (1) | AU2010259191B2 (ko) |
WO (1) | WO2010144201A2 (ko) |
Families Citing this family (382)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7706917B1 (en) * | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8074172B2 (en) | 2007-01-05 | 2011-12-06 | Apple Inc. | Method, system, and graphical user interface for providing word recommendations |
US20080168402A1 (en) | 2007-01-07 | 2008-07-10 | Christopher Blumenberg | Application Programming Interfaces for Gesture Operations |
US20080168478A1 (en) | 2007-01-07 | 2008-07-10 | Andrew Platzer | Application Programming Interfaces for Scrolling |
US20090144667A1 (en) * | 2007-11-30 | 2009-06-04 | Nokia Corporation | Apparatus, method, computer program and user interface for enabling user input |
US8677285B2 (en) | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
US8645827B2 (en) | 2008-03-04 | 2014-02-04 | Apple Inc. | Touch event model |
AU2010212148B2 (en) * | 2009-02-06 | 2014-07-10 | Bae Systems Plc | Touch -screen vehicle remote control |
US8285499B2 (en) | 2009-03-16 | 2012-10-09 | Apple Inc. | Event recognition |
US9684521B2 (en) | 2010-01-26 | 2017-06-20 | Apple Inc. | Systems having discrete and continuous gesture recognizers |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8836648B2 (en) | 2009-05-27 | 2014-09-16 | Microsoft Corporation | Touch pull-in gesture |
US8681106B2 (en) | 2009-06-07 | 2014-03-25 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US8701029B2 (en) * | 2009-06-24 | 2014-04-15 | Red Hat Israel, Ltd. | Presenting a modal dialog box using an invisible panel underneath |
US20110061025A1 (en) * | 2009-09-04 | 2011-03-10 | Walline Erin K | Auto Scroll In Combination With Multi Finger Input Device Gesture |
EP2480957B1 (en) | 2009-09-22 | 2017-08-09 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8780069B2 (en) | 2009-09-25 | 2014-07-15 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8766928B2 (en) | 2009-09-25 | 2014-07-01 | Apple Inc. | Device, method, and graphical user interface for manipulating user interface objects |
US8832585B2 (en) | 2009-09-25 | 2014-09-09 | Apple Inc. | Device, method, and graphical user interface for manipulating workspace views |
US8799826B2 (en) | 2009-09-25 | 2014-08-05 | Apple Inc. | Device, method, and graphical user interface for moving a calendar entry in a calendar application |
US8677284B2 (en) * | 2009-11-04 | 2014-03-18 | Alpine Electronics, Inc. | Method and apparatus for controlling and displaying contents in a user interface |
US8442600B1 (en) * | 2009-12-02 | 2013-05-14 | Google Inc. | Mobile electronic device wrapped in electronic display |
US20110138284A1 (en) * | 2009-12-03 | 2011-06-09 | Microsoft Corporation | Three-state touch input system |
KR20110064334A (ko) * | 2009-12-08 | 2011-06-15 | 삼성전자주식회사 | 휴대용 단말기에서 사용자 인터페이스 설정을 위한 장치 및 방법 |
US8386965B2 (en) * | 2010-01-15 | 2013-02-26 | Apple Inc. | Techniques and systems for enhancing touch screen device accessibility through virtual containers and virtually enlarged boundaries |
JP5636678B2 (ja) * | 2010-01-19 | 2014-12-10 | ソニー株式会社 | 表示制御装置、表示制御方法及び表示制御プログラム |
US8539385B2 (en) * | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for precise positioning of objects |
US8539386B2 (en) | 2010-01-26 | 2013-09-17 | Apple Inc. | Device, method, and graphical user interface for selecting and moving objects |
US8612884B2 (en) | 2010-01-26 | 2013-12-17 | Apple Inc. | Device, method, and graphical user interface for resizing objects |
KR20110104620A (ko) * | 2010-03-17 | 2011-09-23 | 삼성전자주식회사 | 휴대용 단말기에서 문자 입력 방법 및 장치 |
US20110239149A1 (en) * | 2010-03-24 | 2011-09-29 | Microsoft Corporation | Timeline control |
US8957866B2 (en) * | 2010-03-24 | 2015-02-17 | Microsoft Corporation | Multi-axis navigation |
US9405404B2 (en) * | 2010-03-26 | 2016-08-02 | Autodesk, Inc. | Multi-touch marking menus and directional chording gestures |
US20110257958A1 (en) * | 2010-04-15 | 2011-10-20 | Michael Rogler Kildevaeld | Virtual smart phone |
US20130102252A1 (en) * | 2010-04-21 | 2013-04-25 | Eth Zurich | Method for communicating and distance bounding system |
US20110273379A1 (en) * | 2010-05-05 | 2011-11-10 | Google Inc. | Directional pad on touchscreen |
US20110289408A1 (en) * | 2010-05-18 | 2011-11-24 | Suchithra Narasimhalu Chitlur | Menu path tracking and display of path steps |
JP5533254B2 (ja) * | 2010-05-24 | 2014-06-25 | アイシン・エィ・ダブリュ株式会社 | 情報表示装置、情報表示方法及びプログラム |
US9542091B2 (en) | 2010-06-04 | 2017-01-10 | Apple Inc. | Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator |
US8707195B2 (en) * | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
US10216408B2 (en) | 2010-06-14 | 2019-02-26 | Apple Inc. | Devices and methods for identifying user interface objects based on view hierarchy |
KR20110138925A (ko) * | 2010-06-22 | 2011-12-28 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
US20110316805A1 (en) * | 2010-06-28 | 2011-12-29 | Youji Yamada | Electronic device |
US8972879B2 (en) | 2010-07-30 | 2015-03-03 | Apple Inc. | Device, method, and graphical user interface for reordering the front-to-back positions of objects |
KR20120012115A (ko) * | 2010-07-30 | 2012-02-09 | 삼성전자주식회사 | 유저 인터페이스 제공방법 및 이를 적용한 디스플레이 장치 |
US9081494B2 (en) | 2010-07-30 | 2015-07-14 | Apple Inc. | Device, method, and graphical user interface for copying formatting attributes |
US9098182B2 (en) | 2010-07-30 | 2015-08-04 | Apple Inc. | Device, method, and graphical user interface for copying user interface objects between content regions |
US8452600B2 (en) | 2010-08-18 | 2013-05-28 | Apple Inc. | Assisted reader |
JP5614173B2 (ja) * | 2010-08-25 | 2014-10-29 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8972467B2 (en) | 2010-08-31 | 2015-03-03 | Sovanta Ag | Method for selecting a data set from a plurality of data sets by means of an input device |
US8767019B2 (en) | 2010-08-31 | 2014-07-01 | Sovanta Ag | Computer-implemented method for specifying a processing operation |
KR101718027B1 (ko) * | 2010-09-09 | 2017-03-20 | 엘지전자 주식회사 | 이동 단말기 및 그의 메모 관리방법 |
US20120154303A1 (en) * | 2010-09-24 | 2012-06-21 | Research In Motion Limited | Method for conserving power on a portable electronic device and a portable electronic device configured for the same |
US8903525B2 (en) * | 2010-09-28 | 2014-12-02 | Sony Corporation | Sound processing device, sound data selecting method and sound data selecting program |
EP2624111A4 (en) * | 2010-09-29 | 2014-10-08 | Nec Casio Mobile Comm Ltd | INFORMATION PROCESSING DEVICE, CONTROL METHOD FOR THE DEVICE, AND SOFTWARE |
JP5782699B2 (ja) | 2010-10-15 | 2015-09-24 | ソニー株式会社 | 情報処理装置、情報処理装置の入力制御方法及びプログラム |
KR101726607B1 (ko) * | 2010-10-19 | 2017-04-13 | 삼성전자주식회사 | 휴대 단말기의 화면 제어 방법 및 장치 |
US20120110517A1 (en) * | 2010-10-29 | 2012-05-03 | Honeywell International Inc. | Method and apparatus for gesture recognition |
KR101314262B1 (ko) * | 2010-11-11 | 2013-10-14 | (주) 에스엔아이솔라 | 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법 |
US8797283B2 (en) * | 2010-11-22 | 2014-08-05 | Sony Computer Entertainment America Llc | Method and apparatus for performing user-defined macros |
WO2012087939A1 (en) * | 2010-12-20 | 2012-06-28 | Apple Inc. | Event recognition |
US20120159395A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Application-launching interface for multiple modes |
US20120159383A1 (en) | 2010-12-20 | 2012-06-21 | Microsoft Corporation | Customization of an immersive environment |
US8612874B2 (en) | 2010-12-23 | 2013-12-17 | Microsoft Corporation | Presenting an application change through a tile |
US8689123B2 (en) | 2010-12-23 | 2014-04-01 | Microsoft Corporation | Application reporting in an application-selectable user interface |
US20130334300A1 (en) | 2011-01-03 | 2013-12-19 | Curt Evans | Text-synchronized media utilization and manipulation based on an embedded barcode |
US20120315009A1 (en) * | 2011-01-03 | 2012-12-13 | Curt Evans | Text-synchronized media utilization and manipulation |
US9830831B2 (en) * | 2011-01-05 | 2017-11-28 | Pathway Innovations And Technologies, Inc. | Mobile handwriting recording instrument and group lecture delivery and response system using the same |
US9477311B2 (en) | 2011-01-06 | 2016-10-25 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9423878B2 (en) | 2011-01-06 | 2016-08-23 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9430128B2 (en) * | 2011-01-06 | 2016-08-30 | Tivo, Inc. | Method and apparatus for controls based on concurrent gestures |
US9015641B2 (en) | 2011-01-06 | 2015-04-21 | Blackberry Limited | Electronic device and method of providing visual notification of a received communication |
US9766718B2 (en) | 2011-02-28 | 2017-09-19 | Blackberry Limited | Electronic device and method of displaying information in response to input |
US9465440B2 (en) * | 2011-01-06 | 2016-10-11 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US9471145B2 (en) | 2011-01-06 | 2016-10-18 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US10042546B2 (en) * | 2011-01-07 | 2018-08-07 | Qualcomm Incorporated | Systems and methods to present multiple frames on a touch screen |
US20120176321A1 (en) * | 2011-01-10 | 2012-07-12 | Einstruction Corporation | Touch-Enabled Personal Mobile Whiteboard Tablet |
US8825734B2 (en) * | 2011-01-27 | 2014-09-02 | Egain Corporation | Personal web display and interaction experience system |
JP2014507726A (ja) * | 2011-02-08 | 2014-03-27 | ハワース, インコーポレイテッド | マルチモーダルタッチスクリーン対話装置、方法、及び、システム |
US20120218203A1 (en) * | 2011-02-10 | 2012-08-30 | Kanki Noriyoshi | Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus |
KR101873787B1 (ko) * | 2011-02-10 | 2018-07-03 | 삼성전자주식회사 | 터치스크린 단말기에서 멀티 터치 입력 처리 방법 및 장치 |
US20140019904A1 (en) * | 2011-02-15 | 2014-01-16 | Exo U Inc. | Method for providing data associated with an object displayed on a touch screen display |
US9213421B2 (en) | 2011-02-28 | 2015-12-15 | Blackberry Limited | Electronic device and method of displaying information in response to detecting a gesture |
KR101842457B1 (ko) * | 2011-03-09 | 2018-03-27 | 엘지전자 주식회사 | 이동 단말기 및 그의 텍스트 커서 운용방법 |
KR101852428B1 (ko) * | 2011-03-09 | 2018-04-26 | 엘지전자 주식회사 | 이동 단말기 및 그의 3d객체 제어방법 |
EP2686758B1 (en) | 2011-03-17 | 2020-09-30 | Laubach, Kevin | Input device user interface enhancements |
WO2012125989A2 (en) * | 2011-03-17 | 2012-09-20 | Laubach Kevin | Touch enhanced interface |
EP2689304A4 (en) * | 2011-03-21 | 2014-09-10 | Assa Abloy Ab | SYSTEM AND METHOD FOR SECURE DATA ENTRY |
US9582088B2 (en) * | 2011-03-23 | 2017-02-28 | Nanophoton Corporation | Microscope |
US9760566B2 (en) | 2011-03-31 | 2017-09-12 | Microsoft Technology Licensing, Llc | Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof |
US9244984B2 (en) | 2011-03-31 | 2016-01-26 | Microsoft Technology Licensing, Llc | Location based conversational understanding |
US10642934B2 (en) | 2011-03-31 | 2020-05-05 | Microsoft Technology Licensing, Llc | Augmented conversational understanding architecture |
US9842168B2 (en) | 2011-03-31 | 2017-12-12 | Microsoft Technology Licensing, Llc | Task driven user intents |
US9858343B2 (en) | 2011-03-31 | 2018-01-02 | Microsoft Technology Licensing Llc | Personalization of queries, conversations, and searches |
US9298287B2 (en) * | 2011-03-31 | 2016-03-29 | Microsoft Technology Licensing, Llc | Combined activation for natural user interface systems |
US20120260220A1 (en) * | 2011-04-06 | 2012-10-11 | Research In Motion Limited | Portable electronic device having gesture recognition and a method for controlling the same |
US20120266079A1 (en) * | 2011-04-18 | 2012-10-18 | Mark Lee | Usability of cross-device user interfaces |
JP5858641B2 (ja) * | 2011-05-10 | 2016-02-10 | キヤノン株式会社 | 情報処理装置、情報処理装置と外部装置とを含むシステム、システムの制御方法、及びプログラム |
US9454962B2 (en) | 2011-05-12 | 2016-09-27 | Microsoft Technology Licensing, Llc | Sentence simplification for spoken language understanding |
US9064006B2 (en) | 2012-08-23 | 2015-06-23 | Microsoft Technology Licensing, Llc | Translating natural language utterances to keyword search queries |
JP5485220B2 (ja) * | 2011-05-13 | 2014-05-07 | 株式会社Nttドコモ | 表示装置、ユーザインタフェース方法及びプログラム |
US9391568B2 (en) * | 2011-05-16 | 2016-07-12 | Rosemount Inc. | Process device with light change triggered display |
JP2012243077A (ja) * | 2011-05-19 | 2012-12-10 | Sony Corp | 情報処理装置、情報処理方法、及びプログラム |
US9465434B2 (en) | 2011-05-23 | 2016-10-11 | Haworth, Inc. | Toolbar dynamics for digital whiteboard |
US20140055400A1 (en) | 2011-05-23 | 2014-02-27 | Haworth, Inc. | Digital workspace ergonomics apparatuses, methods and systems |
US9471192B2 (en) | 2011-05-23 | 2016-10-18 | Haworth, Inc. | Region dynamics for digital whiteboard |
CA2836813C (en) | 2011-05-23 | 2020-10-27 | Jeffrey Jon REUSCHEL | Digital whiteboard collaboration apparatuses, methods and systems |
US20120304107A1 (en) * | 2011-05-27 | 2012-11-29 | Jennifer Nan | Edge gesture |
US20120304132A1 (en) | 2011-05-27 | 2012-11-29 | Chaitanya Dev Sareen | Switching back to a previously-interacted-with application |
US9158445B2 (en) | 2011-05-27 | 2015-10-13 | Microsoft Technology Licensing, Llc | Managing an immersive interface in a multi-application immersive environment |
US9658766B2 (en) | 2011-05-27 | 2017-05-23 | Microsoft Technology Licensing, Llc | Edge gesture |
US9104307B2 (en) | 2011-05-27 | 2015-08-11 | Microsoft Technology Licensing, Llc | Multi-application environment |
US9032338B2 (en) | 2011-05-30 | 2015-05-12 | Apple Inc. | Devices, methods, and graphical user interfaces for navigating and editing text |
US9513799B2 (en) | 2011-06-05 | 2016-12-06 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US8751971B2 (en) * | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
CH705069A1 (de) | 2011-06-06 | 2012-12-14 | Markus Cslovjecsek Cstool Gmbh | Verfahren zum bewegungsabhängigen Navigieren in kontinuierlichen Datenströmen entlang visueller Strukturen. |
US9204094B2 (en) * | 2011-06-28 | 2015-12-01 | Lifesize Communications, Inc. | Adjusting volume of a videoconference using touch-based gestures |
US9436301B2 (en) | 2011-06-29 | 2016-09-06 | Google Technology Holdings LLC | Portable electronic device having interchangeable user interfaces and method thereof |
US9417754B2 (en) | 2011-08-05 | 2016-08-16 | P4tents1, LLC | User interface system, method, and computer program product |
US8971572B1 (en) | 2011-08-12 | 2015-03-03 | The Research Foundation For The State University Of New York | Hand pointing estimation for human computer interaction |
US9195373B2 (en) * | 2011-08-30 | 2015-11-24 | Nook Digital, Llc | System and method for navigation in an electronic document |
US20130057587A1 (en) | 2011-09-01 | 2013-03-07 | Microsoft Corporation | Arranging tiles |
JP5935267B2 (ja) * | 2011-09-01 | 2016-06-15 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
US9146670B2 (en) | 2011-09-10 | 2015-09-29 | Microsoft Technology Licensing, Llc | Progressively indicating new content in an application-selectable user interface |
US8933952B2 (en) | 2011-09-10 | 2015-01-13 | Microsoft Corporation | Pre-rendering new content for an application-selectable user interface |
US9047469B2 (en) * | 2011-09-10 | 2015-06-02 | Microsoft Technology Licensing, Llc | Modes for applications |
US9612670B2 (en) * | 2011-09-12 | 2017-04-04 | Microsoft Technology Licensing, Llc | Explicit touch selection and cursor placement |
US20130063494A1 (en) | 2011-09-12 | 2013-03-14 | Microsoft Corporation | Assistive reading interface |
US8732616B2 (en) * | 2011-09-22 | 2014-05-20 | International Business Machines Corporation | Mark-based electronic containment system and method |
US9043411B2 (en) | 2011-09-29 | 2015-05-26 | Microsoft Technology Licensing, Llc | Inline message composing with visible list view |
JP5805601B2 (ja) * | 2011-09-30 | 2015-11-04 | 京セラ株式会社 | 装置、方法、及びプログラム |
US9402264B2 (en) * | 2011-09-30 | 2016-07-26 | Intel Corporation | Methods to transport internet traffic over multiple wireless networks simultaneously |
USD686241S1 (en) * | 2011-10-06 | 2013-07-16 | Research In Motion Limited | Display screen with icon |
US20130106707A1 (en) * | 2011-10-26 | 2013-05-02 | Egalax_Empia Technology Inc. | Method and device for gesture determination |
US9268848B2 (en) * | 2011-11-02 | 2016-02-23 | Microsoft Technology Licensing, Llc | Semantic navigation through object collections |
US9594504B2 (en) | 2011-11-08 | 2017-03-14 | Microsoft Technology Licensing, Llc | User interface indirect interaction |
JP6159078B2 (ja) * | 2011-11-28 | 2017-07-05 | 京セラ株式会社 | 装置、方法、及びプログラム |
US9223472B2 (en) | 2011-12-22 | 2015-12-29 | Microsoft Technology Licensing, Llc | Closing applications |
US9116611B2 (en) | 2011-12-29 | 2015-08-25 | Apple Inc. | Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input |
TWI493438B (zh) * | 2012-01-09 | 2015-07-21 | Amtran Technology Co Ltd | 觸控方法 |
JP6103807B2 (ja) * | 2012-01-10 | 2017-03-29 | キヤノン株式会社 | 表示制御装置、その制御方法及びプログラム |
US9058168B2 (en) | 2012-01-23 | 2015-06-16 | Blackberry Limited | Electronic device and method of controlling a display |
US9619038B2 (en) | 2012-01-23 | 2017-04-11 | Blackberry Limited | Electronic device and method of displaying a cover image and an application image from a low power condition |
JP5712942B2 (ja) * | 2012-01-30 | 2015-05-07 | コニカミノルタ株式会社 | 画像形成システム、遠隔操作装置、画像形成装置、プログラム |
US9645724B2 (en) | 2012-02-01 | 2017-05-09 | Facebook, Inc. | Timeline based content organization |
US9557876B2 (en) * | 2012-02-01 | 2017-01-31 | Facebook, Inc. | Hierarchical user interface |
US9235318B2 (en) | 2012-02-01 | 2016-01-12 | Facebook, Inc. | Transitions among hierarchical user-interface layers |
US9384711B2 (en) | 2012-02-15 | 2016-07-05 | Microsoft Technology Licensing, Llc | Speculative render ahead and caching in multiple passes |
US9128605B2 (en) | 2012-02-16 | 2015-09-08 | Microsoft Technology Licensing, Llc | Thumbnail-image selection of applications |
USD715819S1 (en) | 2012-02-23 | 2014-10-21 | Microsoft Corporation | Display screen with graphical user interface |
US9600169B2 (en) * | 2012-02-27 | 2017-03-21 | Yahoo! Inc. | Customizable gestures for mobile devices |
US9817568B2 (en) * | 2012-02-29 | 2017-11-14 | Blackberry Limited | System and method for controlling an electronic device |
US8935606B2 (en) * | 2012-02-29 | 2015-01-13 | Ebay Inc. | Systems and methods for providing a user interface with grid view |
US9202433B2 (en) | 2012-03-06 | 2015-12-01 | Apple Inc. | Multi operation slider |
US20130238747A1 (en) | 2012-03-06 | 2013-09-12 | Apple Inc. | Image beaming for a media editing application |
US9131192B2 (en) | 2012-03-06 | 2015-09-08 | Apple Inc. | Unified slider control for modifying multiple image properties |
US8971623B2 (en) | 2012-03-06 | 2015-03-03 | Apple Inc. | Overlaid user interface tools for applying effects to image |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
US9373049B1 (en) | 2012-04-05 | 2016-06-21 | Amazon Technologies, Inc. | Straight line gesture recognition and rendering |
US9098186B1 (en) * | 2012-04-05 | 2015-08-04 | Amazon Technologies, Inc. | Straight line gesture recognition and rendering |
US20130285927A1 (en) * | 2012-04-30 | 2013-10-31 | Research In Motion Limited | Touchscreen keyboard with correction of previously input text |
DE102012103845A1 (de) * | 2012-05-02 | 2013-11-07 | Kraussmaffei Technologies Gmbh | Steuervorrichtung einer kunststoffverarbeitenden Maschine |
CN106201316B (zh) | 2012-05-09 | 2020-09-29 | 苹果公司 | 用于选择用户界面对象的设备、方法和图形用户界面 |
WO2013169865A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
WO2013169851A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for facilitating user interaction with controls in a user interface |
WO2013169845A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for scrolling nested regions |
WO2013169843A1 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for manipulating framed graphical objects |
EP3594797B1 (en) | 2012-05-09 | 2024-10-02 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
CN108958550B (zh) | 2012-05-09 | 2021-11-12 | 苹果公司 | 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面 |
CN108052264B (zh) | 2012-05-09 | 2021-04-27 | 苹果公司 | 用于移动和放置用户界面对象的设备、方法和图形用户界面 |
WO2013169875A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for displaying content associated with a corresponding affordance |
KR101683868B1 (ko) | 2012-05-09 | 2016-12-07 | 애플 인크. | 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스 |
JP6182207B2 (ja) | 2012-05-09 | 2017-08-16 | アップル インコーポレイテッド | ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース |
WO2013169842A2 (en) | 2012-05-09 | 2013-11-14 | Yknots Industries Llc | Device, method, and graphical user interface for selecting object within a group of objects |
WO2013169849A2 (en) | 2012-05-09 | 2013-11-14 | Industries Llc Yknots | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US8977967B2 (en) | 2012-05-11 | 2015-03-10 | Microsoft Technology Licensing, Llc | Rules for navigating to next content in a browser |
EP2850610B1 (en) * | 2012-05-18 | 2020-11-04 | BlackBerry Limited | Systems and methods to manage zooming |
US9479548B2 (en) | 2012-05-23 | 2016-10-25 | Haworth, Inc. | Collaboration system with whiteboard access to global collaboration data |
US9479549B2 (en) | 2012-05-23 | 2016-10-25 | Haworth, Inc. | Collaboration system with whiteboard with federated display |
US9922309B2 (en) | 2012-05-25 | 2018-03-20 | Microsoft Technology Licensing, Llc | Enhanced electronic communication draft management |
US9235925B2 (en) * | 2012-05-31 | 2016-01-12 | Microsoft Technology Licensing, Llc | Virtual surface rendering |
US9286122B2 (en) | 2012-05-31 | 2016-03-15 | Microsoft Technology Licensing, Llc | Display techniques using virtual surface allocation |
US9230517B2 (en) | 2012-05-31 | 2016-01-05 | Microsoft Technology Licensing, Llc | Virtual surface gutters |
US9177533B2 (en) | 2012-05-31 | 2015-11-03 | Microsoft Technology Licensing, Llc | Virtual surface compaction |
US9164972B2 (en) | 2012-06-07 | 2015-10-20 | Microsoft Technology Licensing, Llc | Managing objects in panorama display to navigate spreadsheet |
CN102750093B (zh) * | 2012-06-11 | 2016-03-30 | 惠州Tcl移动通信有限公司 | 一种屏幕解锁的方法、系统及触摸屏终端 |
US9041667B2 (en) * | 2012-06-12 | 2015-05-26 | Blackberry Limited | Electronic device and method of control of displays |
JP5994412B2 (ja) * | 2012-06-13 | 2016-09-21 | 富士ゼロックス株式会社 | 画像表示装置、画像制御装置、画像形成装置およびプログラム |
US9235335B2 (en) | 2012-06-25 | 2016-01-12 | Microsoft Technology Licensing, Llc | Touch interactions with a drawing application |
USD739412S1 (en) * | 2012-06-28 | 2015-09-22 | Samsung Electronics Co., Ltd. | Portable electronic device with GUI |
US20140006769A1 (en) * | 2012-06-28 | 2014-01-02 | Susan Chory | Device optimization modes |
USD737278S1 (en) * | 2012-06-28 | 2015-08-25 | Samsung Electronics Co., Ltd. | Portable electronic device with animated GUI |
USD738392S1 (en) * | 2012-06-28 | 2015-09-08 | Samsung Electronics Co., Ltd. | Portable electronic device with animated GUI |
USD739413S1 (en) * | 2012-06-28 | 2015-09-22 | Samsung Electronics Co., Ltd. | Portable electronic device with GUI |
US9268457B2 (en) | 2012-07-13 | 2016-02-23 | Google Inc. | Touch-based fluid window management |
JP6188288B2 (ja) * | 2012-07-20 | 2017-08-30 | キヤノン株式会社 | 情報処理装置及びその制御方法 |
US8826128B2 (en) * | 2012-07-26 | 2014-09-02 | Cerner Innovation, Inc. | Multi-action rows with incremental gestures |
US9141200B2 (en) * | 2012-08-01 | 2015-09-22 | Apple Inc. | Device, method, and graphical user interface for entering characters |
US10204507B2 (en) | 2012-08-24 | 2019-02-12 | La Crosse Technology, Ltd. | User-configurable weather warning apparatus |
SG11201509459VA (en) * | 2012-08-29 | 2015-12-30 | Huawei Device Co Ltd | Web application management method and apparatus |
US20140067366A1 (en) * | 2012-08-30 | 2014-03-06 | Google Inc. | Techniques for selecting languages for automatic speech recognition |
JP5594403B2 (ja) * | 2012-09-13 | 2014-09-24 | キヤノンマーケティングジャパン株式会社 | 携帯端末、携帯端末の制御方法、プログラム、および記録媒体 |
US9043733B2 (en) | 2012-09-20 | 2015-05-26 | Google Inc. | Weighted N-finger scaling and scrolling |
KR101943320B1 (ko) * | 2012-09-21 | 2019-04-17 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US10552030B2 (en) * | 2012-10-15 | 2020-02-04 | Kirusa, Inc. | Multi-gesture media recording system |
KR20140047948A (ko) * | 2012-10-15 | 2014-04-23 | 엘지전자 주식회사 | 영상표시장치, 및 그 동작방법 |
KR20140051719A (ko) * | 2012-10-23 | 2014-05-02 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
KR102022050B1 (ko) * | 2012-11-12 | 2019-09-19 | 삼성전자주식회사 | 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법 |
JP6040721B2 (ja) * | 2012-11-16 | 2016-12-07 | 富士通株式会社 | 情報処理装置及びプログラム |
USD748668S1 (en) * | 2012-11-23 | 2016-02-02 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
KR20140070040A (ko) * | 2012-11-30 | 2014-06-10 | 삼성전자주식회사 | 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법 |
US20140164907A1 (en) * | 2012-12-12 | 2014-06-12 | Lg Electronics Inc. | Mobile terminal and method of controlling the mobile terminal |
US9448719B2 (en) * | 2012-12-14 | 2016-09-20 | Barnes & Noble College Booksellers, Llc | Touch sensitive device with pinch-based expand/collapse function |
US9377922B2 (en) * | 2012-12-26 | 2016-06-28 | Verizon Patent And Licensing Inc. | Aiding people with impairments |
KR102301592B1 (ko) | 2012-12-29 | 2021-09-10 | 애플 인크. | 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
WO2014105279A1 (en) | 2012-12-29 | 2014-07-03 | Yknots Industries Llc | Device, method, and graphical user interface for switching between user interfaces |
EP2939095B1 (en) | 2012-12-29 | 2018-10-03 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
JP6093877B2 (ja) | 2012-12-29 | 2017-03-08 | アップル インコーポレイテッド | 複数接触ジェスチャのために触知出力の生成を見合わせるためのデバイス、方法、及びグラフィカルユーザインタフェース |
AU2013368445B8 (en) | 2012-12-29 | 2017-02-09 | Apple Inc. | Device, method, and graphical user interface for determining whether to scroll or select contents |
JP6158947B2 (ja) | 2012-12-29 | 2017-07-05 | アップル インコーポレイテッド | タッチ入力からディスプレイ出力への関係間を遷移するためのデバイス、方法及びグラフィカルユーザインタフェース |
US9146617B2 (en) * | 2013-01-25 | 2015-09-29 | Apple Inc. | Activation of a screen reading program |
US9298360B2 (en) | 2013-01-25 | 2016-03-29 | Apple Inc. | Accessibility techinques for presentation of symbolic expressions |
CN105190644B (zh) * | 2013-02-01 | 2020-12-18 | 英特尔公司 | 用于使用触摸控制的基于图像的搜索的技术 |
US10304037B2 (en) | 2013-02-04 | 2019-05-28 | Haworth, Inc. | Collaboration system including a spatial event map |
US11861561B2 (en) | 2013-02-04 | 2024-01-02 | Haworth, Inc. | Collaboration system including a spatial event map |
JP2014153850A (ja) * | 2013-02-07 | 2014-08-25 | Toshiba Corp | 電子機器、制御方法およびプログラム |
US9690476B2 (en) | 2013-03-14 | 2017-06-27 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
US20140282279A1 (en) * | 2013-03-14 | 2014-09-18 | Cirque Corporation | Input interaction on a touch sensor combining touch and hover actions |
US9159094B2 (en) | 2013-03-15 | 2015-10-13 | Panera, Llc | Methods and apparatus for facilitation of orders of food items |
US9317813B2 (en) | 2013-03-15 | 2016-04-19 | Apple Inc. | Mobile device with predictive routing engine |
US9857193B2 (en) | 2013-06-08 | 2018-01-02 | Apple Inc. | Mapping application with turn-by-turn navigation mode for output to vehicle display |
US9631930B2 (en) | 2013-03-15 | 2017-04-25 | Apple Inc. | Warning for frequently traveled trips based on traffic |
EP2778615B1 (en) * | 2013-03-15 | 2018-09-12 | Apple Inc. | Mapping Application with Several User Interfaces |
EP3101392B1 (en) * | 2013-03-15 | 2021-12-15 | Apple Inc. | Mapping application with turn-by-turn navigation mode for output to vehicle display |
WO2014157886A1 (en) | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Method and device for executing application |
WO2014157893A1 (en) | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Method and device for providing a private page |
US10229258B2 (en) | 2013-03-27 | 2019-03-12 | Samsung Electronics Co., Ltd. | Method and device for providing security content |
US9996246B2 (en) | 2013-03-27 | 2018-06-12 | Samsung Electronics Co., Ltd. | Device and method for displaying execution result of application |
WO2014157897A1 (en) | 2013-03-27 | 2014-10-02 | Samsung Electronics Co., Ltd. | Method and device for switching tasks |
WO2014153786A1 (en) * | 2013-03-29 | 2014-10-02 | Hewlett-Packard Development Company, L.P. | Adjustable timeline user interface |
US9507495B2 (en) | 2013-04-03 | 2016-11-29 | Blackberry Limited | Electronic device and method of displaying information in response to a gesture |
KR101294558B1 (ko) | 2013-04-15 | 2013-08-07 | 김민철 | 오타 수정 방법 |
KR102052971B1 (ko) * | 2013-05-14 | 2020-01-08 | 엘지전자 주식회사 | 지문 스캔너를 포함하는 포터블 디바이스 및 그 제어 방법 |
CN103324435B (zh) * | 2013-05-24 | 2017-02-08 | 华为技术有限公司 | 分屏显示的方法、装置及其电子设备 |
USD748644S1 (en) * | 2013-06-06 | 2016-02-02 | Huawei Technologies Co., Ltd. | Icon for display for on a display screen or portion thereof |
US20140365459A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Harvesting Addresses |
US9465985B2 (en) | 2013-06-09 | 2016-10-11 | Apple Inc. | Managing real-time handwriting recognition |
US9733716B2 (en) | 2013-06-09 | 2017-08-15 | Apple Inc. | Proxy gesture recognizer |
JP5739479B2 (ja) * | 2013-06-12 | 2015-06-24 | 本田技研工業株式会社 | プログラム及びアプリケーション制御方法 |
US9699019B2 (en) | 2013-06-14 | 2017-07-04 | Microsoft Technology Licensing, Llc | Related content display associated with browsing |
US9307007B2 (en) | 2013-06-14 | 2016-04-05 | Microsoft Technology Licensing, Llc | Content pre-render and pre-fetch techniques |
US9285964B2 (en) * | 2013-06-18 | 2016-03-15 | Google Inc. | Automatically recovering and maintaining focus |
JP6057187B2 (ja) * | 2013-06-20 | 2017-01-11 | パナソニックIpマネジメント株式会社 | 情報処理装置 |
US9377318B2 (en) * | 2013-06-27 | 2016-06-28 | Nokia Technologies Oy | Method and apparatus for a navigation conveyance mode invocation input |
KR101474467B1 (ko) * | 2013-07-09 | 2014-12-19 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
JP2015022567A (ja) * | 2013-07-19 | 2015-02-02 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
KR102163684B1 (ko) * | 2013-07-19 | 2020-10-12 | 삼성전자주식회사 | 디바이스의 홈 스크린 구성 방법 및 장치 |
US10067628B2 (en) * | 2013-08-14 | 2018-09-04 | Google Llc | Presenting open windows and tabs |
US9729592B2 (en) * | 2013-08-27 | 2017-08-08 | Persais, Llc | System and method for distributed virtual assistant platforms |
US9594470B2 (en) * | 2013-09-12 | 2017-03-14 | Blackberry Limited | Methods and software for facilitating the selection of multiple items at an electronic device |
USD751082S1 (en) * | 2013-09-13 | 2016-03-08 | Airwatch Llc | Display screen with a graphical user interface for an email application |
US9645651B2 (en) | 2013-09-24 | 2017-05-09 | Microsoft Technology Licensing, Llc | Presentation of a control interface on a touch-enabled device based on a motion or absence thereof |
JP2015064680A (ja) * | 2013-09-24 | 2015-04-09 | 京セラ株式会社 | 電子機器、電子機器の制御方法、および電子機器の制御プログラム |
JP5973405B2 (ja) * | 2013-09-25 | 2016-08-23 | 京セラドキュメントソリューションズ株式会社 | 入力装置及び電子機器 |
CN104516559A (zh) * | 2013-09-27 | 2015-04-15 | 华硕电脑股份有限公司 | 触控输入装置的多点触控方法 |
US10055103B1 (en) | 2013-10-21 | 2018-08-21 | Google Llc | Text entry based on persisting actions |
CA160904S (en) * | 2013-11-01 | 2015-05-04 | Sony Computer Entertainment Inc | Display screen with user interface |
KR101381101B1 (ko) * | 2013-11-13 | 2014-04-02 | 주식회사 큐키 | 문자열 사이의 연관성 판단을 통한 오타 수정 방법 |
US8869062B1 (en) * | 2013-11-27 | 2014-10-21 | Freedom Scientific, Inc. | Gesture-based screen-magnified touchscreen navigation |
US20150153949A1 (en) * | 2013-12-03 | 2015-06-04 | Google Inc. | Task selections associated with text inputs |
KR20150067812A (ko) * | 2013-12-09 | 2015-06-19 | 삼성전자주식회사 | 제어 단말과 연동하여 청각 기기를 관리하는 스테이션 |
CN104699393B (zh) * | 2013-12-09 | 2018-02-27 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
KR102210045B1 (ko) * | 2013-12-12 | 2021-02-01 | 삼성전자 주식회사 | 전자장치의 입력 제어장치 및 방법 |
WO2015112870A1 (en) | 2014-01-25 | 2015-07-30 | Cloudpin Inc. | Systems and methods for location-based content sharing using unique identifiers |
US9538078B2 (en) * | 2014-03-02 | 2017-01-03 | Google Inc. | User interface for wide angle photography |
USD738910S1 (en) * | 2014-03-19 | 2015-09-15 | Wargaming.Net Llp | Display screen with animated graphical user interface |
US9407674B2 (en) * | 2014-03-25 | 2016-08-02 | Shui Yu Chan | Method and device for removing objects from a video feed in real-time |
WO2015152890A1 (en) * | 2014-03-31 | 2015-10-08 | Hewlett-Packard Development Company, Lp | Three-part gesture |
WO2015149347A1 (en) | 2014-04-04 | 2015-10-08 | Microsoft Technology Licensing, Llc | Expandable application representation |
EP3129847A4 (en) | 2014-04-10 | 2017-04-19 | Microsoft Technology Licensing, LLC | Slider cover for computing device |
MX2016013962A (es) * | 2014-04-24 | 2017-04-27 | Idis Tech Ip Ltd | Aplicacion de mensajeria privada y metodos asociados. |
US9898162B2 (en) | 2014-05-30 | 2018-02-20 | Apple Inc. | Swiping functions for messaging applications |
US9971500B2 (en) | 2014-06-01 | 2018-05-15 | Apple Inc. | Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application |
JP6399834B2 (ja) * | 2014-07-10 | 2018-10-03 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、及びプログラム |
US9430142B2 (en) | 2014-07-17 | 2016-08-30 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
US10007419B2 (en) | 2014-07-17 | 2018-06-26 | Facebook, Inc. | Touch-based gesture recognition and application navigation |
FR3024912B1 (fr) * | 2014-08-18 | 2018-09-28 | Inside Vision | Dispositif notamment pour afficheur destine a des malvoyants et afficheur comportant un tel dispositif |
USD735754S1 (en) | 2014-09-02 | 2015-08-04 | Apple Inc. | Display screen or portion thereof with graphical user interface |
USD762693S1 (en) | 2014-09-03 | 2016-08-02 | Apple Inc. | Display screen or portion thereof with graphical user interface |
KR20160034776A (ko) * | 2014-09-22 | 2016-03-30 | 삼성전자주식회사 | 디바이스 및 상기 디바이스의 제어 방법 |
US9984487B2 (en) * | 2014-09-24 | 2018-05-29 | Intel Corporation | Facial gesture driven animation communication system |
US9501271B2 (en) * | 2014-10-09 | 2016-11-22 | Facebook, Inc. | Device, method, and graphical user interface for presenting and installing applications |
US9977592B2 (en) * | 2014-10-30 | 2018-05-22 | Mediatek Inc. | Touch rim control method and associated device |
US9674335B2 (en) | 2014-10-30 | 2017-06-06 | Microsoft Technology Licensing, Llc | Multi-configuration input device |
US9733734B2 (en) | 2014-11-13 | 2017-08-15 | Grayhill, Inc. | Method for using a two-dimensional touchpad to manipulate a three-dimensional image |
US20170371515A1 (en) | 2014-11-19 | 2017-12-28 | Honda Motor Co., Ltd. | System and method for providing absolute and zone coordinate mapping with graphic animations |
US9727231B2 (en) | 2014-11-19 | 2017-08-08 | Honda Motor Co., Ltd. | System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen |
JP6735282B2 (ja) * | 2015-02-02 | 2020-08-05 | サーク・コーポレーション | マルチ・フィンガ・ジェスチャにおける垂直二等分線を使用した、ディスプレイ上の多次元環境に示されるオブジェクトの動きの制御 |
JP6433811B2 (ja) * | 2015-02-25 | 2018-12-05 | 京セラ株式会社 | 電子機器 |
USD773534S1 (en) * | 2015-02-27 | 2016-12-06 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
US10466883B2 (en) * | 2015-03-02 | 2019-11-05 | Apple Inc. | Screenreader user interface |
USD765098S1 (en) | 2015-03-06 | 2016-08-30 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US10095396B2 (en) | 2015-03-08 | 2018-10-09 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US9990107B2 (en) | 2015-03-08 | 2018-06-05 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US9645732B2 (en) | 2015-03-08 | 2017-05-09 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying and using menus |
US10048757B2 (en) | 2015-03-08 | 2018-08-14 | Apple Inc. | Devices and methods for controlling media presentation |
US9632664B2 (en) | 2015-03-08 | 2017-04-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
USD771670S1 (en) | 2015-03-09 | 2016-11-15 | Apple Inc. | Display screen or portion thereof with animated graphical user interface |
US9639184B2 (en) | 2015-03-19 | 2017-05-02 | Apple Inc. | Touch input cursor manipulation |
US9785305B2 (en) * | 2015-03-19 | 2017-10-10 | Apple Inc. | Touch input cursor manipulation |
US10152208B2 (en) | 2015-04-01 | 2018-12-11 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US20170045981A1 (en) | 2015-08-10 | 2017-02-16 | Apple Inc. | Devices and Methods for Processing Touch Inputs Based on Their Intensities |
US10088993B2 (en) * | 2015-04-01 | 2018-10-02 | Ebay Inc. | User interface for controlling data navigation |
JP2018524661A (ja) | 2015-05-06 | 2018-08-30 | ハワース, インコーポレイテッドHaworth, Inc. | 共同システムにおける仮想作業空間ビューポート・フォロー・モード |
KR20160133781A (ko) * | 2015-05-13 | 2016-11-23 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
JP6314914B2 (ja) * | 2015-06-04 | 2018-04-25 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置、画像形成装置の操作画面制御方法 |
USD772269S1 (en) | 2015-06-05 | 2016-11-22 | Apple Inc. | Display screen or portion thereof with graphical user interface |
US9891811B2 (en) | 2015-06-07 | 2018-02-13 | Apple Inc. | Devices and methods for navigating between user interfaces |
US9860451B2 (en) | 2015-06-07 | 2018-01-02 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US9830048B2 (en) | 2015-06-07 | 2017-11-28 | Apple Inc. | Devices and methods for processing touch inputs with instructions in a web page |
US10254939B2 (en) * | 2015-06-07 | 2019-04-09 | Apple Inc. | Device, method, and graphical user interface for providing and interacting with a virtual drawing aid |
US9961239B2 (en) | 2015-06-07 | 2018-05-01 | Apple Inc. | Touch accommodation options |
US9674426B2 (en) | 2015-06-07 | 2017-06-06 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10346030B2 (en) | 2015-06-07 | 2019-07-09 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10200598B2 (en) | 2015-06-07 | 2019-02-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
CN104932826B (zh) * | 2015-06-26 | 2018-10-12 | 联想(北京)有限公司 | 一种信息处理方法和电子设备 |
US10452231B2 (en) * | 2015-06-26 | 2019-10-22 | International Business Machines Corporation | Usability improvements for visual interfaces |
US10394421B2 (en) | 2015-06-26 | 2019-08-27 | International Business Machines Corporation | Screen reader improvements |
US10248308B2 (en) | 2015-08-10 | 2019-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures |
US9880735B2 (en) | 2015-08-10 | 2018-01-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10235035B2 (en) | 2015-08-10 | 2019-03-19 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10416800B2 (en) | 2015-08-10 | 2019-09-17 | Apple Inc. | Devices, methods, and graphical user interfaces for adjusting user interface objects |
US10642404B2 (en) * | 2015-08-24 | 2020-05-05 | Qeexo, Co. | Touch sensitive device with multi-sensor stream synchronized data |
USD777784S1 (en) * | 2015-08-26 | 2017-01-31 | Google Inc. | Display screen with icon |
WO2017035538A1 (en) * | 2015-08-27 | 2017-03-02 | Jumpin Labs Inc. | Method, system and apparatus for organizing and interacting with email on user devices |
CN105159682A (zh) * | 2015-09-21 | 2015-12-16 | 联想(北京)有限公司 | 一种桌面对象的隐藏处理方法及电子设备 |
US20170083173A1 (en) * | 2015-09-23 | 2017-03-23 | Daniel Novak | Systems and methods for interacting with computing devices via non-visual feedback |
CN105353946A (zh) * | 2015-10-10 | 2016-02-24 | 上海斐讯数据通信技术有限公司 | 一种输入密码后可快速进入应用程序的方法和移动终端 |
US10282052B2 (en) | 2015-10-15 | 2019-05-07 | At&T Intellectual Property I, L.P. | Apparatus and method for presenting information associated with icons on a display screen |
KR20170058051A (ko) | 2015-11-18 | 2017-05-26 | 삼성전자주식회사 | 휴대 장치 및 휴대 장치의 화면 제어방법 |
US10255023B2 (en) | 2016-02-12 | 2019-04-09 | Haworth, Inc. | Collaborative electronic whiteboard publication process |
KR102490913B1 (ko) | 2016-06-07 | 2023-01-20 | 삼성전자주식회사 | 디스플레이 장치 및 제어 방법 |
US10739972B2 (en) | 2016-06-10 | 2020-08-11 | Apple Inc. | Device, method, and graphical user interface for managing electronic communications |
DK201670580A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Wrist-based tactile time feedback for non-sighted users |
DK179329B1 (en) | 2016-06-12 | 2018-05-07 | Apple Inc | Handwriting keyboard for monitors |
JP6342453B2 (ja) * | 2016-07-07 | 2018-06-13 | 本田技研工業株式会社 | 操作入力装置 |
US10078417B1 (en) * | 2016-07-29 | 2018-09-18 | Freedom Scientific, Inc. | View port array of graphic user interface components |
US10405034B1 (en) * | 2016-11-14 | 2019-09-03 | Cox Communications, Inc. | Biometric access to personalized services |
USD841036S1 (en) * | 2017-03-29 | 2019-02-19 | Facebook, Inc. | Display panel of a programmed computer system with a graphical user interface |
US10371544B2 (en) | 2017-05-04 | 2019-08-06 | Wearworks | Vibrating haptic device for the blind |
US10324537B2 (en) * | 2017-05-31 | 2019-06-18 | John Park | Multi-language keyboard system |
CN108986727A (zh) * | 2017-06-02 | 2018-12-11 | 葛美迪影像科技股份有限公司 | 具有光源提示功能的显示器控制装置及其提示方法 |
US10521106B2 (en) | 2017-06-27 | 2019-12-31 | International Business Machines Corporation | Smart element filtering method via gestures |
US10805676B2 (en) | 2017-07-10 | 2020-10-13 | Sony Corporation | Modifying display region for people with macular degeneration |
US10650702B2 (en) | 2017-07-10 | 2020-05-12 | Sony Corporation | Modifying display region for people with loss of peripheral vision |
US10845954B2 (en) | 2017-07-11 | 2020-11-24 | Sony Corporation | Presenting audio video display options as list or matrix |
US20190018478A1 (en) * | 2017-07-11 | 2019-01-17 | Sony Corporation | Sensing viewer direction of viewing to invoke accessibility menu in audio video device |
JP6910898B2 (ja) * | 2017-09-08 | 2021-07-28 | 株式会社東芝 | 電子機器及びコンテンツ表示プログラム |
CN107728918A (zh) * | 2017-09-27 | 2018-02-23 | 北京三快在线科技有限公司 | 浏览连续页面的方法、装置及电子设备 |
US11934637B2 (en) | 2017-10-23 | 2024-03-19 | Haworth, Inc. | Collaboration system including markers identifying multiple canvases in multiple shared virtual workspaces |
US11126325B2 (en) | 2017-10-23 | 2021-09-21 | Haworth, Inc. | Virtual workspace including shared viewport markers in a collaboration system |
US12019850B2 (en) | 2017-10-23 | 2024-06-25 | Haworth, Inc. | Collaboration system including markers identifying multiple canvases in multiple shared virtual workspaces |
KR102088215B1 (ko) | 2018-01-22 | 2020-03-13 | 삼성전자주식회사 | 복수의 어플리케이션을 제어하기 위한 전자 장치 |
USD881207S1 (en) * | 2018-05-07 | 2020-04-14 | Google Llc | Display screen with user interface |
USD882615S1 (en) | 2018-09-06 | 2020-04-28 | Apple Inc. | Electronic device with animated graphical user interface |
CN109254707A (zh) * | 2018-09-14 | 2019-01-22 | Oppo广东移动通信有限公司 | 一种窗口调节的方法、移动终端及计算机可读存储介质 |
US11126732B2 (en) * | 2018-11-14 | 2021-09-21 | Paypal, Inc. | Security of authentication data on mobile devices |
WO2020176517A1 (en) | 2019-02-25 | 2020-09-03 | Haworth, Inc. | Gesture based workflows in a collaboration system |
WO2020194569A1 (ja) * | 2019-03-27 | 2020-10-01 | 三菱電機株式会社 | 変換システム、変換装置及び変換方法 |
US11194467B2 (en) | 2019-06-01 | 2021-12-07 | Apple Inc. | Keyboard management user interfaces |
US10996761B2 (en) | 2019-06-01 | 2021-05-04 | Apple Inc. | User interfaces for non-visual output of time |
CN110414402B (zh) * | 2019-07-22 | 2022-03-25 | 北京达佳互联信息技术有限公司 | 一种手势数据标注方法、装置、电子设备及存储介质 |
JP2021018777A (ja) | 2019-07-24 | 2021-02-15 | キヤノン株式会社 | 電子機器 |
CN111104037B (zh) * | 2019-12-09 | 2023-05-09 | 深圳市联谛信息无障碍有限责任公司 | 有助视觉障碍者浏览的方法及移动终端 |
US11036375B1 (en) * | 2020-02-20 | 2021-06-15 | Lenovo (Singapore) Pte. Ltd. | Dynamic zoom based on media |
US11212127B2 (en) | 2020-05-07 | 2021-12-28 | Haworth, Inc. | Digital workspace sharing over one or more display clients and authorization protocols for collaboration systems |
US11750672B2 (en) | 2020-05-07 | 2023-09-05 | Haworth, Inc. | Digital workspace sharing over one or more display clients in proximity of a main client |
USD974384S1 (en) * | 2021-03-15 | 2023-01-03 | Intrface Solutions Inc. | Display screen or portion thereof with graphical user interface |
USD985609S1 (en) * | 2021-04-07 | 2023-05-09 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with transitional graphical user interface |
TWI825412B (zh) | 2021-05-04 | 2023-12-11 | 瑞昱半導體股份有限公司 | 顯示系統 |
WO2023163699A1 (en) * | 2022-02-23 | 2023-08-31 | Hewlett-Packard Development Company, L.P. | Display device settings sizes |
US20240100417A1 (en) * | 2022-09-26 | 2024-03-28 | Sony Interactive Entertainment Inc. | Outputting braille or subtitles using computer game controller |
Family Cites Families (232)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4185283A (en) | 1978-01-09 | 1980-01-22 | Clark Lloyd D | Multiple character word indication system employing sequential sensible indicia |
US4444515A (en) | 1981-05-11 | 1984-04-24 | Clark Lloyd D | Earring watch |
US4859100A (en) * | 1984-07-09 | 1989-08-22 | Minolta Camera Kabushiki Kaisha | Keyboard to prevent erroneous simultaneous activation of keys |
US4826405A (en) | 1985-10-15 | 1989-05-02 | Aeroquip Corporation | Fan blade fabrication system |
US4746770A (en) | 1987-02-17 | 1988-05-24 | Sensor Frame Incorporated | Method and apparatus for isolating and manipulating graphic objects on computer video monitor |
JPS63271516A (ja) | 1987-04-28 | 1988-11-09 | Nec Corp | グラフイツクデイスプレイデ−タ処理方式 |
US5053758A (en) | 1988-02-01 | 1991-10-01 | Sperry Marine Inc. | Touchscreen control panel with sliding touch control |
JPH01283621A (ja) | 1988-05-11 | 1989-11-15 | Mitsubishi Electric Corp | 座標入力方式 |
JPH02244214A (ja) | 1989-03-16 | 1990-09-28 | Nec Corp | 座標入力装置 |
US5252951A (en) | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
JP2811501B2 (ja) | 1990-08-30 | 1998-10-15 | インターナショナル・ビジネス・マシーンズ・コーポレーション | カーソル移動制御方法及び装置 |
US5119079A (en) | 1990-09-17 | 1992-06-02 | Xerox Corporation | Touch screen user interface with expanding touch locations for a reprographic machine |
US5347295A (en) | 1990-10-31 | 1994-09-13 | Go Corporation | Control of a computer through a position-sensed stylus |
US5347589A (en) | 1991-10-28 | 1994-09-13 | Meeks Associates, Inc. | System and method for displaying handwriting parameters for handwriting verification |
US6046722A (en) | 1991-12-05 | 2000-04-04 | International Business Machines Corporation | Method and system for enabling blind or visually impaired computer users to graphically select displayed elements |
US5488204A (en) * | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
US5513309A (en) | 1993-01-05 | 1996-04-30 | Apple Computer, Inc. | Graphic editor user interface for a pointer-based computer system |
US5502803A (en) * | 1993-01-18 | 1996-03-26 | Sharp Kabushiki Kaisha | Information processing apparatus having a gesture editing function |
DE4340679A1 (de) | 1993-11-30 | 1995-06-01 | Detecon Gmbh | Sprachmodul für die akustische Wiedergabe von SAPI 3 Messages (Short Message Service) in einer Mobilstation (MS) |
JPH07321889A (ja) | 1994-05-25 | 1995-12-08 | Hitachi Ltd | 移動体通信端末装置 |
JPH10510639A (ja) | 1994-07-01 | 1998-10-13 | パーム コンピューティング,インコーポレーテッド | マルチペンストローク文字セット及び手書文書認識システム |
US7181692B2 (en) | 1994-07-22 | 2007-02-20 | Siegel Steven H | Method for the auditory navigation of text |
US6442523B1 (en) | 1994-07-22 | 2002-08-27 | Steven H. Siegel | Method for the auditory navigation of text |
US5574840A (en) | 1994-08-29 | 1996-11-12 | Microsoft Corporation | Method and system for selecting text utilizing a plurality of text using switchable minimum granularity of selection |
JP2760289B2 (ja) | 1994-09-14 | 1998-05-28 | 日本電気株式会社 | 視覚障害者向けグラフィカル・ユーザ・インタフェース操作装置 |
KR0140176B1 (ko) * | 1994-11-30 | 1998-07-15 | 김광호 | 반도체 메모리장치의 동작모드 제어장치 및 방법 |
US5618232A (en) | 1995-03-23 | 1997-04-08 | Martin; John R. | Dual mode gaming device methods and systems |
US6496182B1 (en) * | 1995-06-07 | 2002-12-17 | Microsoft Corporation | Method and system for providing touch-sensitive screens for the visually impaired |
US5649133A (en) | 1995-06-13 | 1997-07-15 | Apple Computer, Inc. | Method for collision avoidance for user interface for object with multiple handles |
US6384743B1 (en) * | 1999-06-14 | 2002-05-07 | Wisconsin Alumni Research Foundation | Touch screen for the vision-impaired |
US6624803B1 (en) * | 1995-10-20 | 2003-09-23 | Wisconsin Alumni Research Foundation | Interface for electronic devices providing improved access for people with disabilities |
JPH09146708A (ja) | 1995-11-09 | 1997-06-06 | Internatl Business Mach Corp <Ibm> | タッチパネルの駆動方法及びタッチ入力方法 |
IL116103A0 (en) | 1995-11-23 | 1996-01-31 | Wireless Links International L | Mobile data terminals with text to speech capability |
US5761485A (en) | 1995-12-01 | 1998-06-02 | Munyan; Daniel E. | Personal electronic book system |
JPH09190436A (ja) | 1996-01-12 | 1997-07-22 | Toshiba Corp | 情報処理装置及び範囲指定方法 |
US6115482A (en) | 1996-02-13 | 2000-09-05 | Ascent Technology, Inc. | Voice-output reading system with gesture-based navigation |
US6128007A (en) * | 1996-07-29 | 2000-10-03 | Motorola, Inc. | Method and apparatus for multi-mode handwritten input and hand directed control of a computing device |
US6088023A (en) | 1996-12-10 | 2000-07-11 | Willow Design, Inc. | Integrated pointing and drawing graphics system for computers |
US6073036A (en) * | 1997-04-28 | 2000-06-06 | Nokia Mobile Phones Limited | Mobile station with touch input having automatic symbol magnification function |
JPH11161978A (ja) * | 1997-10-31 | 1999-06-18 | Sony Precision Eng Center Singapore Pte Ltd | 光学ピックアップ及び/又は光ディスクのフォーカス特性測定装置、光学ピックアップ及び/又は光ディスクのフォーカス特性測定方法、光ディスクの記録及び/又は再生装置、並びに、光ディスクの記録及び/又は再生方法 |
US6075537A (en) | 1997-11-20 | 2000-06-13 | International Business Machines Corporation | Ease of use interface to hotspots in hypertext document pages in network display stations |
US6088027A (en) | 1998-01-08 | 2000-07-11 | Macromedia, Inc. | Method and apparatus for screen object manipulation |
US7614008B2 (en) * | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
IL137478A (en) | 1998-01-26 | 2005-11-20 | Westerman Wayne | Method and apparatus for integrating manual input |
US9292111B2 (en) | 1998-01-26 | 2016-03-22 | Apple Inc. | Gesturing with a multipoint sensing device |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
JP3840898B2 (ja) * | 1998-02-03 | 2006-11-01 | セイコーエプソン株式会社 | 投写型表示装置およびそのための表示方法、並びに、画像表示装置 |
US6211856B1 (en) * | 1998-04-17 | 2001-04-03 | Sung M. Choi | Graphical user interface touch screen with an auto zoom feature |
US6246983B1 (en) | 1998-08-05 | 2001-06-12 | Matsushita Electric Corporation Of America | Text-to-speech e-mail reader with multi-modal reply processor |
US7110945B2 (en) * | 1999-07-16 | 2006-09-19 | Dreamations Llc | Interactive book |
US6396523B1 (en) | 1999-07-29 | 2002-05-28 | Interlink Electronics, Inc. | Home entertainment device remote control |
US6664989B1 (en) | 1999-10-18 | 2003-12-16 | Honeywell International Inc. | Methods and apparatus for graphical display interaction |
US6446041B1 (en) | 1999-10-27 | 2002-09-03 | Microsoft Corporation | Method and system for providing audio playback of a multi-source document |
US20020046195A1 (en) * | 1999-11-10 | 2002-04-18 | Neopost Inc. | Method and system for providing stamps by kiosk |
JP2001147775A (ja) | 1999-11-24 | 2001-05-29 | Casio Comput Co Ltd | 携帯端末装置及びそのプログラムを記憶した記憶媒体 |
US6707942B1 (en) | 2000-03-01 | 2004-03-16 | Palm Source, Inc. | Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication |
US6765557B1 (en) * | 2000-04-10 | 2004-07-20 | Interlink Electronics, Inc. | Remote control having touch pad to screen mapping |
US20010035884A1 (en) | 2000-04-27 | 2001-11-01 | Dan Kikinis | Method and system for inputting time in a video environment using sliders |
US6556222B1 (en) | 2000-06-30 | 2003-04-29 | International Business Machines Corporation | Bezel based input mechanism and user interface for a smart watch |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7218226B2 (en) | 2004-03-01 | 2007-05-15 | Apple Inc. | Acceleration-based theft detection system for portable electronic devices |
US6897853B2 (en) | 2000-11-10 | 2005-05-24 | Microsoft Corp. | Highlevel active pen matrix |
US6788815B2 (en) | 2000-11-10 | 2004-09-07 | Microsoft Corporation | System and method for accepting disparate types of user input |
US6717600B2 (en) | 2000-12-15 | 2004-04-06 | International Business Machines Corporation | Proximity selection of selectable item in a graphical user interface |
US6677932B1 (en) | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6570557B1 (en) | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US7062437B2 (en) | 2001-02-13 | 2006-06-13 | International Business Machines Corporation | Audio renderings for expressing non-audio nuances |
JP3919210B2 (ja) * | 2001-02-15 | 2007-05-23 | アルパイン株式会社 | 音声入力案内方法及び装置 |
US7194411B2 (en) | 2001-02-26 | 2007-03-20 | Benjamin Slotznick | Method of displaying web pages to enable user access to text information that the user has difficulty reading |
US6834373B2 (en) * | 2001-04-24 | 2004-12-21 | International Business Machines Corporation | System and method for non-visually presenting multi-part information pages using a combination of sonifications and tactile feedback |
GB0110326D0 (en) | 2001-04-27 | 2001-06-20 | Ibm | Method and apparatus for interoperation between legacy software and screen reader programs |
US8416266B2 (en) | 2001-05-03 | 2013-04-09 | Noregin Assetts N.V., L.L.C. | Interacting with detail-in-context presentations |
US7020841B2 (en) | 2001-06-07 | 2006-03-28 | International Business Machines Corporation | System and method for generating and presenting multi-modal applications from intent-based markup scripts |
US20050134578A1 (en) * | 2001-07-13 | 2005-06-23 | Universal Electronics Inc. | System and methods for interacting with a control environment |
US20030020754A1 (en) | 2001-07-26 | 2003-01-30 | Berman Charles Leonard | Method for improving accessibility of a computer display |
US6690365B2 (en) | 2001-08-29 | 2004-02-10 | Microsoft Corporation | Automatic scrolling |
WO2003026712A1 (fr) * | 2001-09-25 | 2003-04-03 | Japan Science And Technology Agency | Procede de formation de membrane basale, procede d'elaboration d'echantillon de membrane basale, tissu artificiel reconstitue utilisant cet echantillon, et procede d'elaboration de ce tissu |
JP3951727B2 (ja) | 2002-02-06 | 2007-08-01 | 松下電器産業株式会社 | 情報処理装置 |
US7075512B1 (en) * | 2002-02-07 | 2006-07-11 | Palmsource, Inc. | Method and system for navigating a display screen for locating a desired item of information |
JP2003256911A (ja) | 2002-02-27 | 2003-09-12 | Oki Electric Ind Co Ltd | 自動サービス装置およびサービス選定方法 |
GB0206090D0 (en) | 2002-03-15 | 2002-04-24 | Koninkl Philips Electronics Nv | Previewing documents on a computer system |
JP2003316254A (ja) | 2002-04-26 | 2003-11-07 | Yazaki Corp | 点字処理装置および該点字処理装置の動作制御を行なうための処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
US6889337B1 (en) | 2002-06-03 | 2005-05-03 | Oracle International Corporation | Method and system for screen reader regression testing |
US7020710B2 (en) | 2002-06-21 | 2006-03-28 | Thomson Licensing | Streaming media delivery on multicast networks for network and server bandwidth minimization and enhanced personalization |
CA2393887A1 (en) | 2002-07-17 | 2004-01-17 | Idelix Software Inc. | Enhancements to user interface for detail-in-context data presentation |
CA2495038C (en) | 2002-09-30 | 2012-11-06 | Microsoft Corporation | System and method for making user interface elements known to an application and user |
CA2406131A1 (en) | 2002-09-30 | 2004-03-30 | Idelix Software Inc. | A graphical user interface using detail-in-context folding |
US7187394B2 (en) | 2002-10-04 | 2007-03-06 | International Business Machines Corporation | User friendly selection apparatus based on touch screens for visually impaired people |
JP3986009B2 (ja) | 2002-11-01 | 2007-10-03 | 日本放送協会 | 文字データ修正装置、その方法及びそのプログラム、並びに、字幕の生成方法 |
US6871149B2 (en) | 2002-12-06 | 2005-03-22 | New Transducers Limited | Contact sensitive device |
US7098896B2 (en) | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
FR2850339B1 (fr) | 2003-01-28 | 2006-02-24 | Sevic System Ag | Installation video portable comprenant une console electronique genre lecteur video ou console de jeu, et un ecran independant associe |
GB0303888D0 (en) | 2003-02-19 | 2003-03-26 | Sec Dep Acting Through Ordnanc | Image streaming |
JP4454958B2 (ja) | 2003-04-30 | 2010-04-21 | 株式会社東芝 | 情報処理装置および機能選択方法 |
JP2006527439A (ja) | 2003-06-13 | 2006-11-30 | ユニヴァーシティ オブ ランカスター | ユーザインタフェース |
JP2005010894A (ja) | 2003-06-17 | 2005-01-13 | Oki Electric Ind Co Ltd | 情報処理装置、ソフトキーボード表示プログラム及びその方法 |
US20050001821A1 (en) | 2003-07-02 | 2005-01-06 | Low Tse How | Option selector and electronic device including such an option selector |
US7164410B2 (en) | 2003-07-28 | 2007-01-16 | Sig G. Kupka | Manipulating an on-screen object using zones surrounding the object |
US20050047629A1 (en) * | 2003-08-25 | 2005-03-03 | International Business Machines Corporation | System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking |
JP3734815B2 (ja) | 2003-12-10 | 2006-01-11 | 任天堂株式会社 | 携帯ゲーム装置及びゲームプログラム |
US7250938B2 (en) | 2004-01-06 | 2007-07-31 | Lenovo (Singapore) Pte. Ltd. | System and method for improved user input on personal computing devices |
US7559036B1 (en) | 2004-03-05 | 2009-07-07 | Trading Technologies International, Inc. | System and method for displaying a constant time selection context menu interface |
US7176888B2 (en) * | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Selective engagement of motion detection |
US8448083B1 (en) | 2004-04-16 | 2013-05-21 | Apple Inc. | Gesture control of multimedia editing applications |
EP1774427A2 (en) | 2004-07-30 | 2007-04-18 | Apple Computer, Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
EP1774429B1 (en) | 2004-07-30 | 2018-06-06 | Apple Inc. | Gestures for touch sensitive input devices |
US7637421B1 (en) * | 2004-09-20 | 2009-12-29 | Diebold Self-Service Systems Division Of Diebold, Incorporated | Automated banking machine audible user interface system and method |
US8744852B1 (en) | 2004-10-01 | 2014-06-03 | Apple Inc. | Spoken interfaces |
EP1645944B1 (en) | 2004-10-05 | 2012-08-15 | Sony France S.A. | A content-management interface |
JP2006134090A (ja) | 2004-11-05 | 2006-05-25 | Matsushita Electric Ind Co Ltd | 入力装置 |
KR100678945B1 (ko) * | 2004-12-03 | 2007-02-07 | 삼성전자주식회사 | 터치패드 입력 정보 처리 장치 및 방법 |
US7489306B2 (en) | 2004-12-22 | 2009-02-10 | Microsoft Corporation | Touch screen accuracy |
US20060150084A1 (en) | 2004-12-30 | 2006-07-06 | Josef Dietl | Data format for representing user interface elements for a screen reader |
US7669149B2 (en) | 2004-12-30 | 2010-02-23 | Sap Ag | Matching user interface elements to screen reader functions |
US20060189278A1 (en) * | 2005-02-24 | 2006-08-24 | Research In Motion Limited | System and method for making an electronic handheld device more accessible to a disabled person |
US7631013B2 (en) | 2005-04-06 | 2009-12-08 | Sierra Interactive Systems, Inc. | System and method for publishing, distributing, and reading electronic interactive books |
CN101228570B (zh) | 2005-07-22 | 2010-05-19 | 马特·帕尔拉科夫 | 可用拇指操作的触摸屏用户界面的系统和方法 |
US7900158B2 (en) | 2005-08-04 | 2011-03-01 | Microsoft Corporation | Virtual magnifying glass with intuitive use enhancements |
JP4031504B2 (ja) | 2005-09-05 | 2008-01-09 | 謙太 中村 | 皮膚の触覚を伴う情報入力装置 |
US20070152980A1 (en) | 2006-01-05 | 2007-07-05 | Kenneth Kocienda | Touch Screen Keyboards for Portable Electronic Devices |
KR20120042880A (ko) | 2005-10-21 | 2012-05-03 | 산요덴키 콘슈머 일렉트로닉스 가부시키가이샤 | 비밀 번호 등을 입력하기 위한 입력 장치 및 그 입력 장치를 구비한 휴대 전화 장치 |
US7402819B2 (en) * | 2005-12-01 | 2008-07-22 | Accuray Incorporated | Respiration phantom for quality assurance |
JP4163713B2 (ja) | 2005-12-07 | 2008-10-08 | 株式会社東芝 | 情報処理装置およびタッチパッド制御方法 |
US20070132789A1 (en) | 2005-12-08 | 2007-06-14 | Bas Ording | List scrolling in response to moving contact over list of index symbols |
US8060821B2 (en) | 2005-12-09 | 2011-11-15 | Apple Inc. | Enhanced visual feedback of interactions with user interface |
US7657849B2 (en) | 2005-12-23 | 2010-02-02 | Apple Inc. | Unlocking a device by performing gestures on an unlock image |
US7603621B2 (en) * | 2006-01-25 | 2009-10-13 | Microsoft Corporation | Computer interface for illiterate and near-illiterate users |
KR100754674B1 (ko) | 2006-03-10 | 2007-09-03 | 삼성전자주식회사 | 휴대 단말의 메뉴 선택 방법 및 장치 |
US8930834B2 (en) * | 2006-03-20 | 2015-01-06 | Microsoft Corporation | Variable orientation user interface |
US7792363B2 (en) | 2006-03-30 | 2010-09-07 | Benjamin Perkins Foss | Use of level detection while capturing and presenting text with optical character recognition |
US20070247422A1 (en) * | 2006-03-30 | 2007-10-25 | Xuuk, Inc. | Interaction techniques for flexible displays |
US9395905B2 (en) | 2006-04-05 | 2016-07-19 | Synaptics Incorporated | Graphical scroll wheel |
US8077153B2 (en) | 2006-04-19 | 2011-12-13 | Microsoft Corporation | Precise selection techniques for multi-touch screens |
US9063647B2 (en) | 2006-05-12 | 2015-06-23 | Microsoft Technology Licensing, Llc | Multi-touch uses, gestures, and implementation |
JP2007310496A (ja) * | 2006-05-16 | 2007-11-29 | Alps Electric Co Ltd | タッチ操作入力装置 |
US20070268317A1 (en) * | 2006-05-18 | 2007-11-22 | Dan Banay | User interface system and method for selectively displaying a portion of a display screen |
US8411590B2 (en) * | 2006-07-27 | 2013-04-02 | Mobitrum Corporation | Mesh network remote control device |
US20080027726A1 (en) * | 2006-07-28 | 2008-01-31 | Eric Louis Hansen | Text to audio mapping, and animation of the text |
US7772965B2 (en) * | 2006-08-07 | 2010-08-10 | Farhan Fariborz M | Remote wellness monitoring system with universally accessible interface |
US7571070B2 (en) * | 2006-08-30 | 2009-08-04 | International Business Machines Corporation | Measurement system fleet optimization |
US8564544B2 (en) | 2006-09-06 | 2013-10-22 | Apple Inc. | Touch screen device, method, and graphical user interface for customizing display of content category icons |
US8564543B2 (en) * | 2006-09-11 | 2013-10-22 | Apple Inc. | Media player with imaged based browsing |
WO2008032329A2 (en) | 2006-09-13 | 2008-03-20 | Alon Atsmon | Providing content responsive to multimedia signals |
US7856605B2 (en) * | 2006-10-26 | 2010-12-21 | Apple Inc. | Method, system, and graphical user interface for positioning an insertion marker in a touch screen display |
US7518959B2 (en) | 2006-12-01 | 2009-04-14 | Seiko Epson Corporation | Display device and display method |
US20080140413A1 (en) | 2006-12-07 | 2008-06-12 | Jonathan Travis Millman | Synchronization of audio to reading |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US20080165148A1 (en) | 2007-01-07 | 2008-07-10 | Richard Williamson | Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content |
US8689132B2 (en) * | 2007-01-07 | 2014-04-01 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying electronic documents and lists |
US8650505B2 (en) | 2007-02-28 | 2014-02-11 | Rpx Corporation | Multi-state unified pie user interface |
US20080229206A1 (en) | 2007-03-14 | 2008-09-18 | Apple Inc. | Audibly announcing user interface elements |
US8219406B2 (en) | 2007-03-15 | 2012-07-10 | Microsoft Corporation | Speech-centric multimodal user interface design in mobile technology |
JP4468404B2 (ja) | 2007-05-02 | 2010-05-26 | キヤノン株式会社 | 情報処理装置の制御方法、情報処理装置及びプログラム |
KR100844071B1 (ko) * | 2007-05-09 | 2008-07-07 | 엘지전자 주식회사 | 웹페이지 표시가 가능한 이동통신 단말기 및 그 제어방법 |
US20080300874A1 (en) | 2007-06-04 | 2008-12-04 | Nexidia Inc. | Speech skills assessment |
TWI408572B (zh) | 2007-06-08 | 2013-09-11 | Sony Corp | Information processing device, input device, information processing system, information processing method and computer readable storage medium |
US8059101B2 (en) * | 2007-06-22 | 2011-11-15 | Apple Inc. | Swipe gestures for touch screen keyboards |
JP5440167B2 (ja) * | 2007-07-04 | 2014-03-12 | ソニー株式会社 | 入力装置、制御装置、制御方法及びハンドヘルド装置 |
US20090051671A1 (en) | 2007-08-22 | 2009-02-26 | Jason Antony Konstas | Recognizing the motion of two or more touches on a touch-sensing surface |
JP2009093291A (ja) | 2007-10-04 | 2009-04-30 | Toshiba Corp | ジェスチャー判定装置及び方法 |
KR20090056469A (ko) | 2007-11-30 | 2009-06-03 | 삼성전자주식회사 | 터치 스크린에서 터치 구동 장치 및 방법 |
JP4605478B2 (ja) | 2007-12-19 | 2011-01-05 | ソニー株式会社 | 情報処理装置、表示制御方法及び表示制御プログラム |
US8677285B2 (en) * | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
US9092134B2 (en) | 2008-02-04 | 2015-07-28 | Nokia Technologies Oy | User touch display interface providing an expanded selection area for a user selectable object |
TW200937254A (en) * | 2008-02-29 | 2009-09-01 | Inventec Appliances Corp | A method for inputting control commands and a handheld device thereof |
US8908973B2 (en) | 2008-03-04 | 2014-12-09 | Apple Inc. | Handwritten character recognition interface |
JP2009245423A (ja) * | 2008-03-13 | 2009-10-22 | Panasonic Corp | 情報機器およびウインドウ表示方法 |
US8468469B1 (en) * | 2008-04-15 | 2013-06-18 | Google Inc. | Zooming user interface interactions |
US8456380B2 (en) | 2008-05-15 | 2013-06-04 | International Business Machines Corporation | Processing computer graphics generated by a remote computer for streaming to a client computer |
US20090313020A1 (en) | 2008-06-12 | 2009-12-17 | Nokia Corporation | Text-to-speech user interface control |
US8182372B2 (en) * | 2008-06-13 | 2012-05-22 | Bernard Hayes | Device for training athletic or sports ball players |
US8239201B2 (en) * | 2008-09-13 | 2012-08-07 | At&T Intellectual Property I, L.P. | System and method for audibly presenting selected text |
US20100073303A1 (en) * | 2008-09-24 | 2010-03-25 | Compal Electronics, Inc. | Method of operating a user interface |
KR101075728B1 (ko) | 2008-09-25 | 2011-10-21 | 엘지전자 주식회사 | 영상표시장치 및 영상표시장치의 채널정보 표시방법 |
US8237666B2 (en) | 2008-10-10 | 2012-08-07 | At&T Intellectual Property I, L.P. | Augmented I/O for limited form factor user-interfaces |
US20100107116A1 (en) * | 2008-10-27 | 2010-04-29 | Nokia Corporation | Input on touch user interfaces |
JP2010152761A (ja) | 2008-12-25 | 2010-07-08 | Sony Corp | 入力装置、制御装置、制御システム、電子機器及び制御方法 |
US8839154B2 (en) * | 2008-12-31 | 2014-09-16 | Nokia Corporation | Enhanced zooming functionality |
US8359202B2 (en) | 2009-01-15 | 2013-01-22 | K-Nfb Reading Technology, Inc. | Character models for document narration |
US8280434B2 (en) * | 2009-02-27 | 2012-10-02 | Research In Motion Limited | Mobile wireless communications device for hearing and/or speech impaired user |
US9927873B2 (en) | 2009-03-12 | 2018-03-27 | Immersion Corporation | Systems and methods for using textures in graphical user interface widgets |
US8566045B2 (en) | 2009-03-16 | 2013-10-22 | Apple Inc. | Event recognition |
US8212788B2 (en) | 2009-05-07 | 2012-07-03 | Microsoft Corporation | Touch input to modulate changeable parameter |
US20100289757A1 (en) * | 2009-05-14 | 2010-11-18 | Budelli Joey G | Scanner with gesture-based text selection capability |
US20100295793A1 (en) * | 2009-05-19 | 2010-11-25 | Sudharshan Srinivasan | Two stroke touch panel data entry system |
KR101564222B1 (ko) * | 2009-05-26 | 2015-11-06 | 삼성전자주식회사 | 휴대단말의 잠금 모드 해제 방법 및 장치 |
US8681106B2 (en) | 2009-06-07 | 2014-03-25 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US20120327009A1 (en) | 2009-06-07 | 2012-12-27 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
US8171401B2 (en) | 2009-06-19 | 2012-05-01 | Microsoft Corporation | Resizing an editable area in a web page |
US9262063B2 (en) * | 2009-09-02 | 2016-02-16 | Amazon Technologies, Inc. | Touch-screen user interface |
US8438500B2 (en) | 2009-09-25 | 2013-05-07 | Apple Inc. | Device, method, and graphical user interface for manipulation of user interface objects with activation regions |
US9338274B2 (en) | 2009-10-02 | 2016-05-10 | Blackberry Limited | Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state |
US8381118B2 (en) | 2009-10-05 | 2013-02-19 | Sony Ericsson Mobile Communications Ab | Methods and devices that resize touch selection zones while selected on a touch sensitive display |
US8957918B2 (en) | 2009-11-03 | 2015-02-17 | Qualcomm Incorporated | Methods for implementing multi-touch gestures on a single-touch touch surface |
US9678659B2 (en) | 2009-12-31 | 2017-06-13 | Verizon Patent And Licensing Inc. | Text entry for a touch screen |
US8103554B2 (en) | 2010-02-24 | 2012-01-24 | GM Global Technology Operations LLC | Method and system for playing an electronic book using an electronics system in a vehicle |
US9535500B2 (en) | 2010-03-01 | 2017-01-03 | Blackberry Limited | Method of providing tactile feedback and apparatus |
US9361018B2 (en) | 2010-03-01 | 2016-06-07 | Blackberry Limited | Method of providing tactile feedback and apparatus |
US8704783B2 (en) | 2010-03-24 | 2014-04-22 | Microsoft Corporation | Easy word selection and selection ahead of finger |
US20110264452A1 (en) | 2010-04-27 | 2011-10-27 | Ramya Venkataramu | Audio output of text data using speech control commands |
US8707195B2 (en) | 2010-06-07 | 2014-04-22 | Apple Inc. | Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface |
US20110298723A1 (en) | 2010-06-07 | 2011-12-08 | Christopher Brian Fleizach | Devices, Methods, and Graphical User Interfaces for Accessibility via a Touch-Sensitive Surface |
US20110300915A1 (en) | 2010-06-08 | 2011-12-08 | Nokia Corporation | Method, apparatus and computer program product for enabling partial functionality of a mobile terminal |
US8972903B2 (en) | 2010-07-08 | 2015-03-03 | Apple Inc. | Using gesture to navigate hierarchically ordered user interface screens |
US8452600B2 (en) * | 2010-08-18 | 2013-05-28 | Apple Inc. | Assisted reader |
US9658732B2 (en) | 2010-10-19 | 2017-05-23 | Apple Inc. | Changing a virtual workspace based on user interaction with an application window in a user interface |
US20120098705A1 (en) | 2010-10-22 | 2012-04-26 | Palm, Inc. | Use of heuristic data for sending message from mobile computing device |
JP5789965B2 (ja) | 2010-12-01 | 2015-10-07 | 富士通株式会社 | 画像送信方法、画像送信装置および画像送信プログラム |
US9235340B2 (en) | 2011-02-18 | 2016-01-12 | Microsoft Technology Licensing, Llc | Modal touch input |
KR20120097944A (ko) | 2011-02-28 | 2012-09-05 | 삼성전자주식회사 | 터치 스크린을 구비한 단말기 및 그 단말기에서 데이터 출력 방법 |
WO2012119085A1 (en) | 2011-03-02 | 2012-09-07 | Touchdome Llc. | A talking dome watch for the visually impaired |
US20120242584A1 (en) | 2011-03-22 | 2012-09-27 | Nokia Corporation | Method and apparatus for providing sight independent activity reports responsive to a touch gesture |
US8787122B2 (en) | 2011-05-31 | 2014-07-22 | International Business Machines Corporation | Time reporting through vibration |
US8751971B2 (en) | 2011-06-05 | 2014-06-10 | Apple Inc. | Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface |
US9069460B2 (en) | 2011-09-12 | 2015-06-30 | Google Technology Holdings LLC | Using pressure differences with a touch-sensitive display screen |
US8483018B2 (en) | 2011-12-08 | 2013-07-09 | Nicholas Leon Anderson | Braille watch |
US9213822B2 (en) | 2012-01-20 | 2015-12-15 | Apple Inc. | Device, method, and graphical user interface for accessing an application in a locked device |
US8881269B2 (en) | 2012-03-31 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader |
US8954890B2 (en) * | 2012-04-12 | 2015-02-10 | Supercell Oy | System, method and graphical user interface for controlling a game |
DE102012216002B3 (de) | 2012-05-18 | 2013-09-12 | Leica Microsystems Cms Gmbh | Schaltung und Verfahren zum Erzeugen von periodischen Steuersignalen sowie Mikroskop und Verfahren zum Steuern eines Mikroskops |
US9261961B2 (en) | 2012-06-07 | 2016-02-16 | Nook Digital, Llc | Accessibility aids for users of electronic devices |
US8868426B2 (en) | 2012-08-23 | 2014-10-21 | Freedom Scientific, Inc. | Screen reader with focus-based speech verbosity |
DE102012018211B4 (de) | 2012-09-14 | 2015-07-16 | Audi Ag | Verfahren zum Bedienen einer Funktionseinrichtung eines Kraftfahrzeugs |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
US9454229B1 (en) | 2013-04-11 | 2016-09-27 | Alexander Wellen | Method and device for tactilely reading time on a touch screen |
US9772764B2 (en) | 2013-06-06 | 2017-09-26 | Microsoft Technology Licensing, Llc | Accommodating sensors and touch in a unified experience |
KR20150008996A (ko) | 2013-07-04 | 2015-01-26 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
KR20150118813A (ko) | 2014-04-15 | 2015-10-23 | 삼성전자주식회사 | 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치 |
US20150339018A1 (en) | 2014-05-23 | 2015-11-26 | Samsung Electronics Co., Ltd. | User terminal device and method for providing information thereof |
US10466883B2 (en) | 2015-03-02 | 2019-11-05 | Apple Inc. | Screenreader user interface |
DK201670580A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Wrist-based tactile time feedback for non-sighted users |
-
2009
- 2009-09-23 US US12/565,746 patent/US8681106B2/en active Active
- 2009-09-23 US US12/565,745 patent/US8493344B2/en active Active
- 2009-09-23 US US12/565,744 patent/US9009612B2/en active Active
-
2010
- 2010-05-07 EP EP12154609A patent/EP2458492A3/en not_active Ceased
- 2010-05-07 KR KR1020127000663A patent/KR101442929B1/ko active IP Right Grant
- 2010-05-07 AU AU2010259191A patent/AU2010259191B2/en active Active
- 2010-05-07 EP EP12154613.9A patent/EP2458493B1/en active Active
- 2010-05-07 JP JP2012513959A patent/JP5812988B2/ja active Active
- 2010-05-07 KR KR1020127001628A patent/KR101509870B1/ko active IP Right Grant
- 2010-05-07 KR KR1020127003523A patent/KR20120047257A/ko active Search and Examination
- 2010-05-07 WO PCT/US2010/034109 patent/WO2010144201A2/en active Application Filing
- 2010-05-07 KR KR1020127001631A patent/KR101591450B1/ko active Application Filing
- 2010-05-07 EP EP10719502A patent/EP2440991A2/en not_active Ceased
- 2010-05-07 KR KR1020167002541A patent/KR101753544B1/ko active IP Right Grant
-
2012
- 2012-02-07 JP JP2012024483A patent/JP5451789B2/ja active Active
- 2012-02-07 JP JP2012024484A patent/JP5714519B2/ja active Active
-
2013
- 2013-07-23 US US13/949,149 patent/US20130311921A1/en not_active Abandoned
-
2015
- 2015-11-16 US US14/943,005 patent/US10061507B2/en active Active
-
2018
- 2018-07-13 US US16/035,068 patent/US10474351B2/en active Active
-
2019
- 2019-11-11 US US16/680,341 patent/US20200081598A1/en not_active Abandoned
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101753544B1 (ko) | 터치 감지형 표면을 이용하는 접근성을 위한 장치, 방법 및 그래픽 사용자 인터페이스 | |
JP6336550B2 (ja) | タッチスクリーンディスプレイを有する多機能デバイスでの編集の方法およびグラフィカルユーザインターフェース | |
US20120327009A1 (en) | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface | |
AU2012200071B2 (en) | Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |