JP2012113730A - 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース - Google Patents

接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP2012113730A
JP2012113730A JP2012024483A JP2012024483A JP2012113730A JP 2012113730 A JP2012113730 A JP 2012113730A JP 2012024483 A JP2012024483 A JP 2012024483A JP 2012024483 A JP2012024483 A JP 2012024483A JP 2012113730 A JP2012113730 A JP 2012113730A
Authority
JP
Japan
Prior art keywords
user interface
touch
finger
detecting
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012024483A
Other languages
English (en)
Other versions
JP5451789B2 (ja
Inventor
Brian Fleizach Christopher
クリストファー, ブライアン フレイザック,
Eric Taylor Seymour
エリック, テイラー シーモア,
Francis Hughes Gregory
グレゴリー, フランシス ヒューズ,
Dean Hudson Reginald
レジナルド, ディーン ハドソン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2012113730A publication Critical patent/JP2012113730A/ja
Application granted granted Critical
Publication of JP5451789B2 publication Critical patent/JP5451789B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】視覚に障害のあるユーザが認識する際の負担を軽減し、タッチスクリーンディスプレイ及び/又はトラックパッドのより効率的なヒューマンマシンインタフェースを生成する。
【解決手段】方法は、ディスプレイ上に複数のユーザインタフェース要素を表示する工程であって、現在のフォーカスは第1のユーザインタフェース要素上にある、工程と、第2のユーザインタフェース要素に対応する接触感知表面上の位置に接触することとは無関係な第1の指ジェスチャを、接触感知表面上で検出する工程と、第1の指ジェスチャを検出したことに応答して、複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から、複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと現在のフォーカスを変更し、かつ第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、を含む。
【選択図】図1A

Description

開示される実施形態は、一般に視覚障害者用の電子デバイスに関し、特にタッチスクリーンディスプレイ又はトラックパッド等の接触感知表面を使用してアクセシビリティを提供する電子デバイスに関する。
接触感知表面をコンピュータ及び他の電子デバイスに対する入力デバイスとして使用することは、近年著しく増加している。これらの接触感知表面を使用することが増加しているため、特に視覚障害者にとって、アクセシブル(利用しやすい)なナビゲーションフィードバックを提供するタッチベースのナビゲーション方法に対する要求は更に増加している(例えば、可聴フィードバック、触感フィードバック及び/又は点字出力)。例えば、低視力のユーザ、盲目のユーザ、失読症のユーザ又は学習障害のある他のユーザ、あるいは操作中に単にデバイスを見ずにデバイスを使用したいか又は使用する必要のある晴眼のユーザは、デバイス上のユーザインタフェース要素間のタッチベースのナビゲーションを可能にするアクセシビリティユーザインタフェースから利益を得ることができる。特に盲目のユーザにとって、効果的なアクセシビリティインタフェースは、単なるオプションではなく、晴眼のユーザからの支援なしでこれらのデバイスを使用するために必要である。
しかし、接触感知表面を備えたデバイス上の既存のアクセシビリティインタフェースは、依然として煩雑で非効率的である。ユーザインタフェース要素のナビゲーション及び起動は困難であることが多いため、視覚に障害のあるユーザにとって認識するのに大きな負担がかかる。更に既存にアクセシビリティ方法は、必要以上に長くかかるためにエネルギーを浪費する。この後者の問題点は、バッテリ駆動のデバイスにおいて特に重要である。
従って、より高速でより効率的なタッチベースのアクセシビリティ方法及びアクセシビリティインタフェースを用いた接触感知表面(例えば、タッチスクリーンディスプレイ及び/又はトラックパッド)を備えた電子デバイスに対する要求がある。そのような方法及びインタフェースは、ユーザインタフェースオブジェクトをナビゲートし且つユーザインタフェースオブジェクトとインタラクション(対話)する既存のアクセシビリティ方法を補完するか、あるいは置換してもよい。そのような方法及びインタフェースにより、視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、そのような方法及びインタフェースにより節電し、バッテリ充電の間隔を長くする。
接触感知表面を備えたデバイスと関連付けられた上述の欠陥及び他のユーザインタフェースアクセシビリティの問題は、開示されるデバイスにより軽減されるかあるいは除去される。いくつかの実施形態において、デバイスはデスクトップコンピュータである。いくつかの実施形態において、デバイスはポータブル機(例えば、ノートブックコンピュータ又はハンドヘルドデバイス)である。いくつかの実施形態において、デバイスはタッチパッド(「トラックパッド」としても既知である)を有する。いくつかの実施形態において、デバイスは接触感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても既知である)を有する。いくつかの実施形態において、デバイスは、グラフィカルユーザインタフェース(GUI)と、1つ以上のプロセッサと、メモリと、複数の機能を実行するメモリに格納された1つ以上のモジュール、プログラム又は命令の集合とを有する。いくつかの実施形態において、ユーザは、主に接触感知表面上の指接触及び指ジェスチャを介してGUIとインタラクションする。いくつかの実施形態において、機能は、提示、ワードプロセシング、ウェブ作成、ディスクオーサリング、スプレッドシート作成、ゲームプレー、電話、テレビ会議、電子メール、インスタントメッセージング、音声メモ、ウェブ閲覧、デジタル音楽再生、デジタルコンテンツの購買及び/又はダウンロード、並びに/あるいはデジタルビデオ再生を含んでもよい。これらの機能を実行する実行可能命令は、コンピュータ読み取り可能な記憶媒体又は1つ以上のプロセッサにより実行されるように構成された他のコンピュータプログラムに含まれてもよい。
いくつかの実施形態において、アクセシビリティ方法は、接触感知表面及びディスプレイを備えた電子デバイスにおいて実行される。方法は、タッチスクリーンディスプレイ上に複数のユーザインタフェース要素を表示することを含み、ここで現在のフォーカスは第1のユーザインタフェース要素上にある。方法は、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である第1の指ジェスチャをタッチスクリーンディスプレイ上で更に検出し、それに応答して、方法は、現在のフォーカスを複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更し、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面及びディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、ディスプレイ上に複数のユーザインタフェース要素を表示する命令であり、ここで現在のフォーカスは第1のユーザインタフェース要素上にある命令と、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1の指ジェスチャを検出する命令と、第1の指ジェスチャを検出することに応答して、現在のフォーカスを複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更する命令と、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する命令とを含む。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイスにより実行される場合にデバイスが、複数のユーザインタフェース要素をディスプレイ上に表示する命令であり、ここで現在のフォーカスは第1のユーザインタフェース要素上にある命令と、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1の指ジェスチャを検出する命令と、第1の指ジェスチャを検出することに応答して、現在のフォーカスを複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更する命令と、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する命令とを格納している。
いくつかの実施形態において、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェース(「GUI)」は、ディスプレイ上に複数のユーザインタフェース要素を含み、ここで現在のフォーカスは第1のユーザインタフェース要素上にある。第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1の指ジェスチャを検出することに応答して、現在のフォーカスは、複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変化し、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報が出力される。
いくつかの実施形態において、アクセシブル電子デバイスは、ディスプレイと、接触感知表面と、ディスプレイ上に複数のユーザインタフェース要素を表示する手段であり、ここで現在のフォーカスは第1のユーザインタフェース要素上にある手段と、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1の指ジェスチャを検出する手段と、第1の指ジェスチャを検出することに応答して、現在のフォーカスを複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更する手段と、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する手段とを含む。
いくつかの実施形態において、アクセシビリティ方法は、ディスプレイ及び接触感知表面を備えた電子デバイスにおいて実行される。方法は、複数の部分を有する文書の第1の部分をディスプレイ上に表示することと、文書の第1の部分に対応する文書部分可聴表示(audible document section indicia)を出力することと、接触感知表面上の第1の指ジェスチャを検出することと、第1の指ジェスチャを検出することに応答して、文書の第1の部分を表示するのを中止することと、文書の第1の部分に隣接する文書の第2の部分をディスプレイ上に表示することと、文書の第2の部分に対応する文書部分可聴表示を出力することとを含む。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面及びディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、複数の部分を有する文書の第1の部分をディスプレイ上に表示する命令と、文書の第1の部分に対応する文書部分可聴表示を出力する命令と、接触感知表面上の第1の指ジェスチャを検出する命令と、第1の指ジェスチャを検出することに応答して、文書の第1の部分を表示するのを中止する命令と、文書の第1の部分に隣接する文書の第2の部分をディスプレイ上に表示する命令と、文書の第2の部分に対応する文書部分可聴表示を出力する命令とを含む。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイスにより実行される場合にデバイスが、複数の部分を有する文書の第1の部分をディスプレイ上に表示する命令と、文書の第1の部分に対応する文書部分可聴表示を出力する命令と、接触感知表面上の第1の指ジェスチャを検出する命令と、第1の指ジェスチャを検出することに応答して、文書の第1の部分を表示するのを中止する命令と、文書の第1の部分に隣接する文書の第2の部分をディスプレイ上に表示する命令と、文書の第2の部分に対応する第1の文書部分可聴表示を出力する命令とを格納している。
いくつかの実施形態において、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェース(「GUI)」は、複数の部分を有する文書の第1の部分を含む。接触感知表面上の第1の指ジェスチャを検出することに応答して、文書の第1の部分に隣接する文書の第2の部分が表示され、文書の表示された第1の部分を置換し、文書の第2の部分に対応する文書部分可聴表示が出力される。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面と、ディスプレイと、複数の部分を有する文書の第1の部分をタッチスクリーンディスプレイ上に表示する手段と、文書の第1の部分に対応する文書部分可聴表示を出力する手段と、接触感知表面上の第1の指ジェスチャを検出する手段と、第1の指ジェスチャを検出することに応答して、文書の第1の部分を表示するのを中止する手段と、文書の第1の部分に隣接する文書の第2の部分をディスプレイ上に表示する手段と、文書の第2の部分に対応する第1の文書部分可聴表示を出力する手段とを含む。
いくつかの実施形態において、方法は、接触感知表面及びディスプレイを備えたアクセシブル電子デバイスにおいて実行される。方法は、ディスプレイ上に複数のユーザインタフェース要素を表示することと、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出することと、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出することに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってディスプレイ上で複数のユーザインタフェース要素においてナビゲートすることとを含む。方法は、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することと、接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、現在のナビゲート可能な単位型を複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更することと、第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力することとを更に含む。現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、方法は、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することと、接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってディスプレイ上で複数のユーザインタフェース要素においてナビゲートすることとを含む。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面及びディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、ディスプレイ上に複数のユーザインタフェース要素を表示する命令と、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出する命令と、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出することに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする命令とを含む。1つ以上のプログラムは、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出する命令と、接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、現在のナビゲート可能な単位型を複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更する命令と、第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する命令と、現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出する命令と、接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってディスプレイ上で複数のユーザインタフェース要素においてナビゲートする命令とを更に含む。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイスにより実行される場合にデバイスが、ディスプレイ上に複数のユーザインタフェース要素を表示する命令と、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出する命令と、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出することに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする命令と、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出する命令と、接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、現在のナビゲート可能な単位型を複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更する命令と、第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する命令とを格納している。現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、1つ以上のプログラムは、実行される場合にデバイスにより、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出し、接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする命令を更に備える。
いくつかの実施形態において、接触感知表面及びディスプレイを備えたアクセシブル電子デバイス上のGUIは、ディスプレイ上に複数のユーザインタフェース要素を含む。接触感知表面上の指による第1ユーザインタフェースナビゲーションジェスチャを検出することに応答して、複数のユーザインタフェース要素は、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってナビゲートされる。複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、現在のナビゲート可能な単位型は、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変化し、第2のナビゲート可能な単位型に関するアクセシビリティ情報が出力される。現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、複数のユーザインタフェース要素ナビゲーションは、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってナビゲートする。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面と、ディスプレイと、ディスプレイ上に複数のユーザインタフェース要素を表示する手段と、接触感知表面上の指による第1の指ジェスチャを検出する手段とを含む。接触感知表面上の指による第1の指ジェスチャを検出することに応答して、アクセシブル電子デバイスは、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする手段と、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出する手段と、接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、現在のナビゲート可能な単位型を複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更する手段と、第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する手段と、現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出する手段と、接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする手段とを更に備える。
いくつかの実施形態において、方法は、接触感知表面及びディスプレイを備えたアクセシブル電子デバイスにおいて実行される。方法は、ディスプレイの少なくとも第1の部分を接触感知表面にマッピングすることと、ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示することと、複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出することと、ユーザインタフェースコンテナ選択イベントを検出することに応答して、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止することと、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングすることとを含む。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面及びディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、ディスプレイの少なくとも第1の部分を接触感知表面にマッピングする命令と、ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する命令と、複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する命令と、ユーザインタフェースコンテナ選択イベントを検出することに応答して、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止する命令と、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングする命令とを含む。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、ディスプレイ及び接触感知表面を備えたアクセシブル電子デバイスにより実行される場合にデバイスが、ディスプレイの少なくとも第1の部分を接触感知表面にマッピングし、ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する命令と、複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する命令と、ユーザインタフェースコンテナ選択イベントを検出することに応答して、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止する命令と、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングする命令とを格納している。
いくつかの実施形態において、ディスプレイ及び接触感知表面を備えたアクセシブル電子上のGUIは、ディスプレイ上に同時に表示された複数のユーザインタフェースコンテナを含む。ディスプレイの少なくとも第1の部分は接触感知表面にマッピングされる。複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出することに応答して、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止し、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングする。
いくつかの実施形態において、アクセシブル電子デバイスは、接触感知表面と、ディスプレイと、ディスプレイの少なくとも第1の部分を接触感知表面にマッピングする手段と、ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する手段と、複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する手段と、ユーザインタフェースコンテナ選択イベントを検出することに応答して、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止する手段と、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングする手段とを含む。
いくつかの実施形態において、アクセシビリティ方法は、中心を有する接触感知ディスプレイを備えた電子デバイスにおいて実行される。方法は、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示することと、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャをタッチスクリーンディスプレイ上で検出することと、同時に複数の指の接触に対するバウンディングボックス(境界を付ける囲み)を判定することと、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大することとを含む。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、中心を有するタッチスクリーンディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースは、タッチスクリーンディスプレイ上に第1の倍率で表示されたコンテンツを含む。第1の複数の指のジェスチャは、タッチスクリーンディスプレイ上で検出される。第1の複数の指のジェスチャを検出することは、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む。同時に複数の指の接触に対するバウンディングボックスが判定される。タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の点の周囲のユーザインタフェースのコンテンツは、タッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大される。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、アクセシブル電子デバイスは、中心を有するタッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する命令と、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャをタッチスクリーンディスプレイ上で検出する命令と、同時に複数の指の接触に対するバウンディングボックスを判定する命令と、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の点の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大する命令とを含む。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、中心を有するタッチスクリーンディスプレイを備えたアクセシブル電子デバイスにより実行される場合にデバイスが、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する命令と、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャをタッチスクリーンディスプレイ上で検出する命令と、同時に複数の指の接触に対するバウンディングボックスを判定する命令と、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の点の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大する命令とを格納している。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、アクセシブル電子デバイスは、中心を有するタッチスクリーンディスプレイと、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する手段と、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャをタッチスクリーンディスプレイ上で検出する手段と、同時に複数の指の接触に対するバウンディングボックスを判定する手段と、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の点の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大する手段とを含む。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、中心を有するタッチスクリーンディスプレイを含むアクセシブル電子デバイスで使用される情報処理装置を提供する。情報処理装置は、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する手段と、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャをタッチスクリーンディスプレイ上で検出する手段と、同時に複数の指の接触に対するバウンディングボックスを判定する手段と、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、バウンディングボックス内の点の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大する手段とを含む。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置にある。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。
いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたアクセシブル電子デバイスにおいて実行される。方法は、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示することと、タッチスクリーンディスプレイ上で複数の同時指接触を検出することと、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出することと、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールすることと、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出することと、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合にユーザインタフェースのコンテンツのスクローリングを中止することと、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合にユーザインタフェースのコンテンツをスクロールすることとを含む。
いくつかの実施形態において、タッチスクリーンディスプレイを備えたアクセシブル電子デバイス上のGUIは、タッチスクリーン上に表示されたコンテンツを含む。複数の同時指接触はタッチスクリーンディスプレイ上で検出される。タッチスクリーンディスプレイ上の複数の同時指接触の移動が検出される。ユーザインタフェースのコンテンツは、複数の同時指接触の移動に従ってスクロールされる。複数の同時指接触のうちの1つ以外の全ての引き上げは、唯一の残る指接触を検出し続ける間に検出される。唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合、ユーザインタフェースのコンテンツのスクローリングを中止する。唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合、ユーザインタフェースのコンテンツをスクロールする。
いくつかの実施形態において、アクセシブル電子デバイスは、タッチスクリーンディスプレイと、1つ以上のプロセッサと、メモリと、メモリに格納され且つ1つ以上のプロセッサにより実行されるように構成された1つ以上のプログラムとを含む。1つ以上のプログラムは、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する命令と、タッチスクリーンディスプレイ上で複数の同時指接触を検出する命令と、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出する命令と、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする命令と、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出する命令と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合にユーザインタフェースのコンテンツのスクローリングを中止する命令と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合にユーザインタフェースのコンテンツをスクロールする命令とを含む。
いくつかの実施形態において、コンピュータ読み取り可能な記憶媒体は、タッチスクリーンディスプレイを備えたアクセシブル電子デバイスにより実行される場合にデバイスが、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する命令と、タッチスクリーンディスプレイ上で複数の同時指接触を検出する命令と、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出する命令と、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする命令と、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出する命令と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合にユーザインタフェースのコンテンツのスクローリングを中止する命令と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合にユーザインタフェースのコンテンツをスクロールする命令とを格納している。
いくつかの実施形態において、アクセシブル電子デバイスは、タッチスクリーンディスプレイと、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する手段と、タッチスクリーンディスプレイ上で複数の同時指接触を検出する手段と、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出する手段と、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする手段と、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出する手段と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合にユーザインタフェースのコンテンツのスクローリングを中止する手段と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合にユーザインタフェースのコンテンツをスクロールする手段とを含む。
いくつかの実施形態において、タッチスクリーンディスプレイを含むアクセシブル電子デバイスで使用される情報処理装置を提供する。情報処理装置は、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する手段と、タッチスクリーンディスプレイ上で複数の同時指接触を検出する手段と、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出する手段と、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする手段と、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出する手段と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分に配置される場合にユーザインタフェースのコンテンツのスクローリングを中止する手段と、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合にユーザインタフェースのコンテンツをスクロールする手段とを含む。
従って、ディスプレイ及び接触感知表面を備えた電子デバイスが新しい改善された方法及びユーザインタフェースを用いて提供されるため、そのようなデバイスにより有効性、効率及びユーザ満足度を向上させる。そのような方法及びインタフェースは、既存のアクセシビリティ方法を補完又は置換してもよい。
本発明の上述の実施形態及び本発明の更なる実施形態をより適切に理解するために、以下の図面と共に以下の発明を実施するための形態を参照すべきである。図中、同一の図中符号は対応する部分を示す。
いくつかの実施形態に従う接触感知ディスプレイを備えたポータブル多機能デバイスを示すブロック図である。 いくつかの実施形態に従うタッチスクリーンを有するポータブル多機能デバイスを示す図である。 いくつかの実施形態に従うディスプレイ及び接触感知表面を備えた例示的な演算装置を示すブロック図である。 いくつかの実施形態に従うポータブル多機能デバイス上のアプリケーションのメニュー用の例示的なユーザインタフェースを示す図である いくつかの実施形態に従うポータブル電子デバイスをロック解除する例示的なユーザインタフェースを示す図である。 いくつかの実施形態に従う接触感知表面を備えた電子デバイス用のアクセシビリティユーザインタフェースを示す図である。 いくつかの実施形態に従うそれぞれのユーザインタフェースコンテナを接触感知表面にマッピングするアクセシビリティユーザインタフェースを示す図である。 いくつかの実施形態に従うユーザインタフェース要素間のタッチベースのナビゲーションのアクセシビリティ方法を示すフローチャートである。 いくつかの実施形態に従う文書部分表示を通信するアクセシビリティ方法を示すフローチャートである。 いくつかの実施形態に従うユーザインタフェースナビゲーション設定を調整するために場所に依存しないジェスチャを使用するアクセシビリティ方法を示すフローチャートである。 いくつかの実施形態に従うユーザインタフェースを介してナビゲートするアクセシビリティ方法を示すフローチャートである。 いくつかの実施形態に従う複数の指のバウンディングボックス内の点の周囲を拡大するアクセシビリティ方法を示すフローチャートである。 いくつかの実施形態に従う1本指のプッシュパニングのアクセシビリティ方法を示すフローチャートである。
次に、添付の図面で例が示される実施形態を詳細に参照する。以下の詳細な説明において、本発明を完璧に理解するために多くの特定の詳細を説明する。しかし、本発明がこれらの特定の詳細を用いずに実施されてもよいことは、当業者には明らかとなるだろう。他の例において、既知の方法、手順、構成要素、回路及びネットワークは、実施形態の態様を不必要に不明瞭にしないように詳細に説明されていない。
第1及び第2等の用語が種々の要素を説明するために本明細書で使用されてもよいが、これらの要素がこれらの用語により限定されるべきではないことは、更に理解されるだろう。これらの用語は、ある要素を別の要素と区別するためだけに使用される。例えば、本発明の範囲から逸脱せずに、第1の接触は第2の接触と呼ばれてもよく、同様に第2の接触は第1の接触と呼ばれてもよい。第1の接触及び第2の接触は、共に接触であるが同一の接触ではない。
本明細書の本発明の説明で使用される専門用語は、特定の実施形態を説明するためだけのものであり、本発明を限定することを意図しない。本発明及び添付の請求の範囲の説明で使用される場合、特に指示のない限り、単数形は複数形も含むことを意図する。「表示(indicia)」を使用することは、単数形で使用すること又は複数形で使用すること、あるいはその双方で使用することを示してもよい。
本明細書で使用されるような「及び/又は」という用語は、関連付けられ且つ列挙された項目のうちの1つ以上のいずれか又は全ての組合せを示し且つ含むことが更に理解されるだろう。本明細書で使用される場合の用語「備える」は、記載される特徴、数字、ステップ、動作、要素及び/又は構成要素の存在を特定するが、1つ以上の他の特徴、数字、ステップ、動作、要素、構成要素及び/又はそれらの集合の存在又は追加を除外しないことが更に理解されるだろう。
本明細書で使用される場合、「場合」という用語は、状況に依存して「際」、「すると」、「判定することに応答して」又は「検出することに応答して」を意味するものとして解釈されてもよい。同様に、「それが判定される場合」又は「[示された条件又はイベント]が検出される場合」という表現は、状況に依存して「判定すると」、「判定することに応答して」、「(示された条件又はイベント)を検出すると」又は「(示された条件又はイベント)を検出することに応答して」を意味するものとして解釈されてもよい。
演算装置、そのようなデバイス用のユーザインタフェース及びそのようなデバイスを使用する関連付けられた処理の実施形態を説明する。いくつかの実施形態において、演算装置は、他の機能、例えばPDA機能及び/又は音楽プレーヤ機能を更に含む移動電話等のポータブル通信デバイスである。ポータブル多機能デバイスの例示的な実施形態は、Cupertino,CaliforniaのApple Inc.のiPhone(登録商標)デバイス及びiPod Touch(登録商標)デバイスを含むがそれらに限定されない。
以下の説明において、ディスプレイ及び接触感知表面を含む演算装置を説明する。しかし、演算装置は、物理キーボード、マウス及び/又はジョイスティック等の1つ以上の他の物理ユーザインタフェースデバイスを含んでもよいことが理解されるべきである。
デバイスは、種々のアプリケーション、例えば描画アプリケーション、プレゼンテーションアプリケーション、ワードプロセシングアプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、スプレッドシートアプリケーション、ゲームアプリケーション、電話アプリケーション、テレビ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、音声メモアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブ閲覧アプリケーション、デジタル音楽プレーヤアプリケーション及び/又はデジタルビデオプレーヤアプリケーションのうちの1つ以上をサポートする。
デバイス上で実行されてもよい種々のアプリケーションは、接触感知表面等の少なくとも1つの共通の物理ユーザインタフェースデバイスを使用してもよい。接触感知表面の1つ以上の機能及びデバイス上に表示された対応する情報は、1つのアプリケーションから次のアプリケーションに適応及び/又は変更されてもよく、且つ/あるいはそれぞれのアプリケーション内で適応及び/又は変更されてもよい。このように、デバイスの共通の物理アーキテクチャ(例えば、接触感知表面)は、直感的に使い易く且つ透過的なユーザインタフェースを用いて種々のアプリケーションをサポートしてもよい。
ユーザインタフェースは、1つ以上のソフトキーボードの実施形態を含んでもよい。ソフトキーボードの実施形態は、例えば全ての内容が参考として本明細書に取り入れられる2006年7月24日に出願された米国特許出願第11/459,606号明細書、「Keyboards For Portable Electronic Devices(可搬電子デバイスのためのキーボード)」及び2006年7月24日に出願された米国特許出願第11/459,615号明細書、「Touch Screen Keyboards For Portable Electronic Devices(可搬電子デバイスのためのタッチスクリーンキーボード)」において説明されるキーボードの表示されたアイコン上の記号の標準的な(QWERTY)構成及び/又は非標準的な構成を含んでもよい。キーボードの実施形態は、タイプライタ用等の既存の物理キーボードのキーの数と比較して少ない数のアイコン(又はソフトキー)を含んでもよい。これにより、ユーザがキーボードの1つ以上のアイコン、すなわち1つ以上の対応する記号を選びやすくなる。キーボードの実施形態は適応可能(アダプティブ)であってもよい。例えば表示されたアイコンは、ユーザ動作、例えば1つ以上のアイコン及び/又は1つ以上の対応する記号を選択することに従って変形してもよい。デバイス上の1つ以上のアプリケーションは、共通のキーボードの実施形態及び/又は異なるキーボードの実施形態を利用してもよい。従って、使用されるキーボードの実施形態は、アプリケーションのうちの少なくともいくつかに合わせられてもよい。いくつかの実施形態において、1つ以上のキーボードの実施形態は、それぞれのユーザに合わせられてもよい。例えば1つ以上のキーボードの実施形態は、それぞれのユーザの用語使用履歴(辞書編集、俗語、個々の使用法)に基づいてそれぞれのユーザに合わせられてもよい。キーボードの実施形態のうちのいくつかは、ユーザがソフトキーボードの実施形態を使用して1つ以上のアイコン、すなわち1つ以上の記号を選択する際の誤りの確率を減らすように調整されてもよい。
次に、接触感知ディスプレイを備えたポータブルデバイスの実施形態を参照する。図1A及び図1Bは、いくつかの実施形態に従う接触感知ディスプレイ112を備えたポータブル多機能デバイス100を示すブロック図である。接触感知ディスプレイ112は、利便性のために「タッチスクリーン」と呼ばれる場合があり、接触感知ディスプレイシステムとして既知であってもよく、あるいは接触感知ディスプレイシステムと呼ばれてもよい。デバイス100は、メモリ102(1つ以上のコンピュータ読み取り可能な記憶媒体を含んでもよい)と、メモリコントローラ122と、1つ以上の処理ユニット(CPU)120と、周辺装置インタフェース118と、RF回路網108と、オーディオ回路網110と、スピーカ111と、マイク113と、入出力(I/O)サブシステム106と、他の入力デバイス又は制御デバイス116と、外部ポート124とを含んでもよい。デバイス100は、1つ以上の光センサ164を含んでもよい。これらの構成要素は、1つ以上の通信バス又は信号線103を介して通信してもよい。
デバイス100は、ポータブル多機能デバイス100の一例にすぎず、示されるより多いか又は少ない構成要素を有してもよく、2つ以上の構成要素を組み合わせてもよく、あるいは構成要素の異なる構成又は配置を有してもよいことが理解されるべきである。図1A及び図1Bに示される種々の構成要素は、1つ以上の信号処理及び/又は特定用途向け集積回路を含むハードウェア、ソフトウェア、あるいはハードウェアとソフトウェアとの双方の組合せで実現されてもよい。
メモリ102は、高速ランダムアクセスメモリを含んでもよく、1つ以上の磁気ディスク記憶装置、フラッシュメモリ素子等の不揮発性メモリ又は他の不揮発性固体メモリ素子を更に含んでもよい。CPU120及び周辺装置インタフェース118等のデバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122により制御されてもよい。
周辺装置インタフェース118は、デバイスの入出力周辺装置をCPU120及びメモリ102に結合する。1つ以上のプロセッサ120は、メモリ102に格納された種々のソフトウェアプログラム及び/又は命令の集合を動作させるかあるいは実行し、デバイス100に対して種々の機能を実行し且つデータを処理する。
いくつかの実施形態において、周辺装置インタフェース118、CPU120及びメモリコントローラ122は、チップ104等の単一のチップ上で実現されてもよい。いくつかの他の実施形態において、周辺装置インタフェース118、CPU120及びメモリコントローラ122は、別個のチップ上で実現されてもよい。
RF(無線周波数)回路網108は、電磁気信号とも呼ばれるRF信号を送受信する。RF回路網108は、電気信号を電磁気信号に変換し/電磁気信号から電気信号に変換し、電磁気信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路網108は、アンテナシステム、RF送受信機、1つ以上の増幅器、チューナ、1つ以上の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード及びメモリ等を含むがそれらに限定されないこれらの機能を実行する既知の回路網を含んでもよい。RF回路網108は、ワールドワイドウェブ(WWW)とも呼ばれるインターネット等のネットワーク、携帯電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)等のイントラネット及び/又は無線ネットワーク、並びに他のデバイスと、無線通信により通信してもよい。無線通信は、グローバル・システム・フォー・モバイル・コミュニケーションズ(GSM(登録商標))、エンハンスド・データ・GSM・エンバイラメント(EDGE)、ハイスピード・ダウンリンク・パケット・アクセス(HSDPA)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wi−Fi(Wireless Fidelity)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g及び/又はIEEE802.11n)、VoIP(voice over Internet Protocol)、Wi−MAX、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、XMPP(extensible messaging and presence protocol)、SIMPLE(Session Initiation Protocol for Instant Messaging and Presence Leveraging Extensions)、インスタントメッセージング及びプレゼンスサービス(IMPS))及び/又はショートメッセージサービス(SMS))、あるいは本明細書の出願日の時点でまだ開発されていない通信プロトコルを含む他のあらゆる適切な通信プロトコルを含むがそれらに限定されない複数の通信規格、通信プロトコル及び通信技術のうちのいずれかを使用してもよい。
オーディオ回路網110、スピーカ111及びマイク113は、ユーザとデバイス100との間にオーディオインタフェースを提供する。オーディオ回路網110は、周辺装置インタフェース118からオーディデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人が聞こえる音波に変換する。オーディオ回路網110は、音波からマイク113により変換された電気信号を更に受信する。オーディオ回路網110は、処理のために電気信号をオーディオデータに変換し、且つオーディオデータを周辺装置インタフェース118に送信する。オーディオデータは、周辺装置インタフェース118によりメモリ102及び/又はRF回路網108から取得されてもよく、且つ/あるいはメモリ102及び/又はRF回路網108に送信されてもよい。いくつかの実施形態において、オーディオ回路網110は、ヘッドセットジャック(例えば、図2の212)を更に含む。ヘッドセットジャックは、出力のみのヘッドホン又は出力(例えば、片耳又は両耳用ヘッドホン)及び入力(例えば、マイク)の双方を含むヘッドセット等の取り外し可能なオーディオ入出力周辺装置とオーディオ回路網110との間にインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力/制御デバイス116等のデバイス100上の入出力周辺装置を周辺装置インタフェース118に結合する。I/Oサブシステム106は、ディスプレイコントローラ156と、他の入力デバイス又は制御デバイスに対する1つ以上の入力コントローラ160とを含んでもよい。1つ以上の入力コントローラ160は、他の入力デバイス又は制御デバイス116に対して電気信号を送受信する。他の入力/制御デバイス116は、物理ボタン(例えば、プッシュボタン、ロッカーボタン等)、ダイヤル、スライダスイッチ、ジョイスティック及びクリックホイール等を含んでもよい。いくつかの別の実施形態において、入力コントローラ160は、キーボード、赤外線ポート、USBポート及びマウス等のポインタデバイスのうちのいずれかに結合されてもよい(あるいは結合されなくてもよい)。1つ以上のボタン(例えば、図2の208)は、スピーカ111及び/又はマイク113の音量調節用のアップ/ダウンボタンを含んでもよい。1つ以上のボタンは、プッシュボタン(例えば、図2の206)を含んでもよい。全ての内容が参考として本明細書に取り入れられる2005年12月23日に出願された米国特許出願第11/322,549号明細書、「Unlocking a Device by Performing Gestures on an Unlock Image(アンロック画像上でジェスチャを行うことによるデバイスのアンロック)」において説明されるように、プッシュボタンを迅速に押下することにより、タッチスクリーン112のロックを解いてもよく、あるいはデバイスのロックを解除するためにタッチスクリーン上でジェスチャを使用する処理を開始してもよい。プッシュボタン(例えば、206)をより長く押下することにより、デバイス100の電源をon又はoffしてもよい。ユーザは、ボタンのうちの1つ以上の機能をカスタマイズ化できてもよい。タッチスクリーン112は、仮想ボタン又はソフトボタン及び1つ以上のソフトキーボードを実現するために使用される。
接触感知タッチスクリーン112は、デバイスとユーザとの間に入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、タッチスクリーン112に対して電気信号を送受信する。タッチスクリーン112は、ユーザに対して視覚出力を表示する。視覚出力は、グラフィックス、テキスト、アイコン、ビデオ及びそれらのあらゆる組合せ(総合的に「グラフィックス」と呼ばれる)を含んでもよい。いくつかの実施形態において、視覚出力のうちのいくつか又は全ては、ユーザインタフェースオブジェクトに対応してもよい。
タッチスクリーン112は、接触感知表面、並びに触感接触及び/又は触覚接触に基づいてユーザからの入力を受け入れるセンサ又はセンサの集合を有する。タッチスクリーン112及びディスプレイコントローラ156は(メモリ102のあらゆる関連付けられたモジュール及び/又は命令の集合と共に)、タッチスクリーン112上で接触(及び接触のあらゆる移動又は遮断)を検出し、検出した接触をタッチスクリーン上に表示されるユーザインタフェースオブジェクト(例えば、1つ以上のソフトキー、アイコン、ウェブページ又は画像)とのインタラクション(対話)に変換する。例示的な一実施形態において、タッチスクリーン112とユーザとの接触点は、ユーザに指に対応する。
他の実施形態では他のディスプレイ技術が使用されてもよいが、タッチスクリーン112は、LCD(液晶ディスプレイ)技術又はLPD(発光ポリマーディスプレイ)技術を使用してもよい。タッチスクリーン112及びディスプレイコントローラ156は、容量性、抵抗性、赤外線及び表面弾性波の技術を含むがそれらに限定されない現在既知の複数のタッチ検出技術又は後で開発される複数のタッチ検出技術、並びにタッチスクリーン112との1つ以上の接触点を判定する他の複数の近接センサアレイ又は他の複数の要素のうちのいずれかを使用して接触及び接触の移動又は遮断を検出してもよい。例示的な一実施形態において、Cupertino,CaliforniaのApple Computer,Inc.のiPhone(登録商標)及びiPod Touch(登録商標)で見られるような投影された相互キャパシタンス感知技術が使用される。
タッチスクリーン112のいくつかの実施形態における接触感知ディスプレイは、全ての内容が参考として本明細書に取り入れられる以下の米国特許第6,323,846号明細書(Westerman他)、米国特許第6,570,557号明細書(Westerman他)及び/又は米国特許第6,677,932号明細書(Westerman)、並びに/あるいは米国特許出願公開第2002/0015024A1号明細書の各々において説明されたマルチ接触感知タブレットに類似してもよい。しかし、タッチスクリーン112はポータブルデバイス100からの視覚出力を表示するが、接触感知タブレットは視覚出力を提供しない。
タッチスクリーン112のいくつかの実施形態における接触感知ディスプレイは、以下の出願、すなわち(1)2006年5月2日に出願された米国特許出願第11/381,313号明細書、「Multipoint Touch Surface Controller(マルチポイント接触表面コントローラ)」、(2)2004年5月6日に出願された米国特許出願第10/840,862号明細書、「Multipoint Touchscreen(マルチポイントタッチスクリーン)」、(3)2004年7月30日に出願された米国特許出願第10/903,964号明細書、「Gestures For Touch Sensitive Input Devices(接触感知入力デバイスのためのジェスチャ)」、(4)2005年1月31日に出願された米国特許出願第11/048,264号明細書、「Gestures For Touch Sensitive Input Devices(接触感知入力デバイスのためのジェスチャ)」、(5)2005年1月18日に出願された米国特許出願第11/038,590号明細書、「Mode−Based Graphical User Interfaces For Touch Sensitive Input Devices(接触感知入力デバイスのためのモードベースグラフィカルユーザインタフェース)」、(6)2005年9月16日に出願された米国特許出願第11/228,758号明細書、「Virtual Input Device Placement On A Touch Screen User Interface(タッチスクリーンユーザインタフェース上のバーチャル入力デバイス配置)」、(7)2005年9月16日に出願された米国特許出願第11/228,700号明細書、「Operation Of A Computer With A Touch Screen Interface(タッチスクリーンインタフェースを備えるコンピュータの動作)」、(8)2005年9月16日に出願された米国特許出願第11/228,737号明細書、「Activating Virtual Keys Of A Touch−Screen Virtual Keyboard(タッチスクリーンバーチャルキーボードのバーチャルキーの作動)」及び2006年3月3日に出願された米国特許出願第11/367,749号明細書、「Multi−Functional Hand−Held Device(多機能ハンドヘルドデバイス)」において説明されたようなものであってもよい。これらの出願の全ては、全ての内容が参考として本明細書に取り入れられる。
タッチスクリーン112は、100dpi以上の解像度を有してもよい。例示的な一実施形態において、タッチスクリーンは、約160dpiの解像度を有する。ユーザは、あらゆる適切なオブジェクト又は付属物、例えばスタイラス及び指等を使用してタッチスクリーン112と接触してもよい。いくつかの実施形態において、ユーザインタフェースは、タッチスクリーン上の指の接触エリアがより大きいためにスタイラスベースの入力ほど厳密ではない指ベースの接触及びジェスチャにより主に動作するように設計される。いくつかの実施形態において、デバイスは、大ざっぱな指ベースの入力を厳密なポインタ/カーソル位置又はユーザが所望する動作を実行するコマンドに変換する。
いくつかの実施形態において、タッチスクリーンに加え、デバイス100は、特定の機能を起動又は停止するタッチパッド(不図示)を含んでもよい。いくつかの実施形態において、タッチパッドは、タッチスクリーンとは異なり視覚出力を表示しないデバイスの接触感知エリアである。タッチパッドは、タッチスクリーン112とは別個の接触感知表面又はタッチスクリーンにより形成された接触感知表面の拡張部であってもよい。
いくつかの実施形態において、デバイス100は、入力制御デバイス116として物理クイックホイール又は仮想クリックホイールを含んでもよい。ユーザは、クリックホイールを回転させることにより、又はクリックホイールとの接触点を移動させることにより(例えば接触点の移動の量は、クリックホイールの中心点に対する角変位により測定される)、タッチスクリーン112に表示された1つ以上のグラフィカルオブジェクト(例えば、アイコン)間をナビゲートしてもよく、それとインタラクションしてもよい。クリックホイールは、表示されたアイコンのうちの1つ以上を選択するために更に使用されてもよい。例えばユーザは、少なくともクリックホイールの一部分又は関連付けられたボタンを押下してもよい。クリックホイールを介してユーザにより提供されたユーザコマンド及びナビゲーションコマンドは、入力コントローラ160、並びにメモリ102のモジュール及び/又は命令の集合のうちの1つ以上により処理されてもよい。仮想クリックホイールの場合、クリックホイール及びクリックホイールコントローラは、それぞれ、タッチスクリーン112及びディスプレイコントローラ156の一部であってもよい。仮想クリックホイールの場合、クリックホイールは、デバイスとのユーザインタラクションに応答してタッチスクリーンディスプレイ上に現れそして消失する不透明の物体又は半透明の物体のいずれかであってもよい。いくつかの実施形態において、仮想クリックホイールは、ポータブル多機能デバイスのタッチスクリーン上に表示され、タッチスクリーンとのユーザ接触により操作される。
デバイス100は、種々の構成要素に電力を供給する電力系統162を更に含む。電力系統162は、電力管理システムと、1つ以上の電源(例えば、バッテリ、交流(AC))と、充電システムと、停電検出回路と、電力変換器又は電力逆変換器と、電力状態標識(例えば、発光ダイオード(LED))と、ポータブルデバイスにおける電力の生成、管理及び分配と関連付けられた他のあらゆる構成要素とを含んでもよい。
デバイス100は、1つ以上の光センサ164を更に含んでもよい。図1A及び図1Bは、I/Oサブシステム106において光センサコントローラ158に結合された光センサを示す。光センサ164は、電荷結合素子(CCD)フォトトランジスタ又は相補型金属酸化物半導体(CMOS)フォトトランジスタを含んでもよい。光センサ164は、環境から1つ以上のレンズを介して投射された光を受け取り、光を画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と共に、光センサ164は静止画像又はビデオを撮像してもよい。いくつかの実施形態において、タッチスクリーンディスプレイ112を静止画像及び/又はビデオ画像取得のためのビューファインダとして使用できるように、光センサは、デバイスの前面のタッチスクリーンディスプレイとは反対側のデバイス100の裏面に配置される。いくつかの実施形態において、ユーザがタッチスクリーンディスプレイ上で他のテレビ会議の参加者を見るのと同時にユーザの画像をテレビ会議のために取得できるように、光センサはデバイスの前面上に配置される。いくつかの実施形態において、テレビ会議、並びに静止画像及び/又はビデオ画像取得の双方のために、タッチスクリーンディスプレイと共に単一の光センサ164を使用できるように、光センサ164の位置は、ユーザにより(例えば、デバイス筐体のレンズ及びセンサを回転させることにより)変更されてもよい。
デバイス100は、1つ以上の近接センサ166を更に含んでもよい。図1A及び図1Bは、周辺装置インタフェース118に結合された近接センサ166を示す。あるいは、近接センサ166は、I/Oサブシステム106において入力コントローラ160に結合されてもよい。近接センサ166は、全ての内容が参考として本明細書に取り入れられる米国特許出願第11/241,839号明細書、「Proximity Detector In Handheld Device(ハンドヘルドデバイスにおける近接検出器)」、米国特許出願第11/240,788号明細書、「Proximity Detector In Handheld Device(ハンドヘルドデバイスにおける近接検出器)」、米国特許出願第11/620,702号明細書、「Using Ambient Light Sensor To Augment Proximity Sensor Output(近接センサ出力を増加させるための環境光センサの使用)」、米国特許出願第11/586,862号明細書、「Automated Response To And Sensing Of User Activity In Portable Devices(可搬デバイスにおけるユーザアクティビティへの自動化された応答及びこの検知)」及び米国特許出願第11/638,251号明細書、「Methods And Systems For Automatic Configuration Of Peripherals(周辺機器の自動設定のための方法及びシステム)」において説明されるように実行してもよい。いくつかの実施形態において、近接センサは、多機能デバイスがユーザの耳に近接して位置付けられる場合(例えば、ユーザが発呼している場合)にタッチスクリーン112をoffにし且つ無効にする。いくつかの実施形態において、近接センサは、デバイスがユーザのポケット、ハンドバッグ又は他の暗いエリアにある場合に画面をoffのままにし、デバイスがロックされた状態にある際の不必要なバッテリの消耗を防止する。
デバイス100は、1つ以上の加速度計168を更に含んでもよい。図1A及び図1Bは、周辺装置インタフェース118に結合された加速度計168を示す。あるいは、加速度計168は、I/Oサブシステム106において入力コントローラ160に結合されてもよい。加速度計168は、全ての内容が参考として本明細書に取り入れられる米国特許出願公開第20050190059号明細書、「Acceleration−based Theft Detection System for Portable Electronic Devices(可搬電子デバイスのための加速度ベース盗難検出システム)」及び米国特許出願公開第20060017692号明細書、「Methods And Apparatuses For Operating A Portable Device Based On An Accelerometer(加速度計に基づいて可搬デバイスを動作させる方法及び装置)」の双方において説明されるように実行してもよい。いくつかの実施形態において、情報は、1つ以上の加速度計から受信したデータの解析に基づいて縦表示又は横表示でタッチスクリーンディスプレイ上に表示される。
いくつかの実施形態において、メモリ102に格納されたソフトウェアコンポーネントは、オペレーティングシステム126と、通信モジュール(又は命令の集合)128と、アクセシビリティモジュール129と、接触/動きモジュール(又は命令の集合)130と、グラフィックスモジュール(又は命令の集合)132と、添付ファイル編集モジュール133と、テキスト入力モジュール(又は命令の集合)134と、全地球測位システム(GPS)モジュール(又は命令の集合)135と、アプリケーション(又は命令の集合)136とを含んでもよい。
オペレーティングシステム126(例えば、Darwin、RTXC、LINUX(登録商標)、UNIX(登録商標)、OS X、WINDOWS(登録商標)又はVxWorks等の組込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶装置制御、電力管理等)を制御し且つ管理する種々のソフトウェアコンポーネント及び/又は駆動部を含み、種々のハードウェアコンポーネントとソフトウェアコンポーネントとの通信を容易にする。
通信モジュール128は、1つ以上の外部ポート124を介した他のデバイスとの通信を容易にし、RF回路網108及び/又は外部ポート124により受信されたデータを処理する種々のソフトウェアコンポートを更に含む。外部ポート124(例えば、USB(Universal Serial Bus)、FIREWIRE等)は、ネットワーク(例えば、インターネット、無線LAN等)を介して間接的に又は他のデバイスに直接結合するように構成される。いくつかの実施形態において、外部ポートは、iPod(Apple Computer,Inc.の商標)デバイス上で使用される30ピンコネクタと同一であるか、あるいはそれに類似し且つ/又は準拠するマルチピン(例えば、30ピン)コネクタである。
オーディオ回路網110、スピーカ111、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、アクセシビリティモジュール129は、ユーザがユーザインタフェースを見る必要なくユーザインタフェースのエレメントをナビゲートし、選択し、起動し且つそれらとインタラクションできるように、ユーザインタフェース要素間のタッチベースのナビゲーションを容易にする。いくつかの実施形態において、アクセシビリティモジュール129は、ユーザインタフェース内のユーザインタフェース要素を直接選択するか、あるいはそれらに直接接触せずにこれらのユーザインタフェース要素を選択及び起動することを容易にする。例示的なユーザインタフェース要素は、ユーザインタフェースアイコン及びウィジェット、アプリケーションアイコン、アプリケーションインタフェース、メニュー、ウェブブラウザ、ウェブページ、並びにワールドワイドウェブからのアプリケーション、アプリケーションコントロール、文書、ソフトキーボード/仮想キーボード、並びに数字パッド、電卓、カレンダー、リスト、表、電子メール、HTMLテキスト、XMLテキスト、リッチテキスト、フォーマットされていないテキスト、地図、ゲームインタフェース等を含むがそれらに限定されない。ユーザインタフェース要素は、ユーザインタフェースが実行している電子デバイスを使用する際にユーザとインタラクションするかあるいはユーザが操作してもよいグラフィカルユーザインタフェース又はテキストユーザインタフェースのあらゆる態様を含む。
接触/動きモジュール130は、タッチスクリーン112(ディスプレイコントローラ156と共に)及び他の接触感知デバイス(例えば、タッチパッド又は物理クリックホイール)との接触を検出してもよい。接触/動きモジュール130は、接触の検出に関連した種々の動作、例えば接触が発生したか(例えば、指ダウンイベントを検出すること)を判定すること、接触の移動があるかを判定すること及び接触感知表面にわたる移動(例えば、1つ以上の指ドラッギングイベントを検出すること)を追跡すること、並びに接触が中止されたか(例えば、指アップイベント又は接触の遮断を検出すること)を判定することを実行する種々のソフトウェアコンポーネントを含む。接触/動きモジュール130は、接触感知表面から接触データを受信する。一連の接触データにより示される接触点の移動を判定することは、接触点の速度(大きさ)、速さ(大きさ及び方向)、並びに/あるいは加速度(大きさ及び/又は方向の変化)を判定することを含んでもよい。これらの動作は、単一の接触(例えば、1本指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用されてもよい。いくつかの実施形態において、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上で接触を検出する。いくつかの実施形態において、接触/動きモジュール130及びコントローラ160は、クリックホイール上で接触を検出する。
接触/動きモジュール130は、ユーザが入力したジェスチャを検出してもよい。接触感知表面上の種々のジェスチャは、種々の接触パターンを有する。従って、ジェスチャは、特定の接触パターンを検出することにより検出されてもよい。例えば、指タップジェスチャを検出することは、指ダウンイベントを検出することを含み、この指ダウンイベントには、指ダウンイベントと同一の位置(又はほぼ同一の位置)(例えば、アイコンの位置)における指アップイベントを検出することが後続する。別の例として、接触感知表面上の指スワイプジェスチャを検出することは、指ダウンイベントを検出することを含み、この指ダウンイベントの検出には、1つ以上の指ドラッギングイベントを検出すること及びその後指アップイベントを検出することが後続する。
グラフィックスモジュール132は、表示されるグラフィックスの強度を変化させる構成要素を含むタッチスクリーン112又は他のディスプレイ上でグラフィックスをレンダリングし且つ表示する種々の既知のソフトウェアコンポーネントを含む。本明細書で使用される場合、「グラフィックス」という用語は、テキスト、ウェブページ、アイコン(例えば、ソフトキーを含むユーザインタフェースオブジェクト)、デジタル画像、ビデオ及び動画等を含むがそれらに限定されないユーザに対して表示されるあらゆるオブジェクトを含む。
いくつかの実施形態において、グラフィックスモジュール132は、使用されるグラフィックスを表すデータを格納する。各グラフィックは、対応するコードを割り当てられてもよい。グラフィックスモジュール132は、必要に応じて座標データ及び他のグラフィックプロパティデータと共に表示されるグラフィックスを特定する1つ以上のコードをアプリケーション等から受信し、画面画像データを生成してディスプレイコントローラ156に出力する。
グラフィックスモジュール132の構成要素であってもよいテキスト入力モジュール134は、種々のアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147及びテキスト入力を必要とする他のあらゆるアプリケーション)にテキストを入力するソフトキーボードを提供する。
GPSモジュール135は、デバイスの場所を判定し、種々のアプリケーションで使用するためにこの情報を提供する(例えば、場所別のダイアリングで使用するために電話138に、ピクチャ/ビデオメタデータとしてカメラ143に、並びに天気ウィジェット、地域のイエローページウィジェット及び地図/ナビゲーションウィジェット等の場所別のサービスを提供するアプリケーションに)。
アプリケーション136は、以下のモジュール(又は命令の集合)、あるいはその部分集合又は上位集合を含んでもよい。
●連絡先モジュール137(住所録又は連絡先リストと呼ばれる場合もある)
●電話モジュール138
●テレビ会議モジュール139
●電子メールクライアントモジュール140
●インスタントメッセージング(IM)モジュール141
●音声メモモジュール142
●静止画像及び/又はビデオ画像用カメラモジュール143
●画像管理モジュール144
●ビデオ再生モジュール145
●音楽再生モジュール146
●ブラウザモジュール147
●カレンダーモジュール148
●天気ウィジェット149−1、株ウィジェット149−2、電卓ウィジェット149−3、アラームクロックウィジェット149−4、辞書ウィジェット149−5及びユーザが取得した他のウィジェット、並びにユーザが作成したウィジェット149−6を含んでもよいウィジェットモジュール149
●ユーザが作成したウィジェット149−6を構築するウィジェットクリエータモジュール150
●検索モジュール151
●ビデオ再生モジュール145及び音楽再生モジュール146をマージするビデオ及び音楽再生モジュール152
●メモモジュール153
●地図モジュール154、並びに/あるいは
●オンラインビデオモジュール155
メモリ102に格納されてもよい他のアプリケーション136の例には、他のワードプロセシングアプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル権利管理、音声認識及び音声複製が含まれる。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と共に、連絡先モジュール137は、住所録又は連絡先リストを管理するために使用されてもよく、このことには住所録に名前を追加すること、住所録から名前を削除すること、電話番号、電子メールアドレス、物理アドレス又は他の情報を名前と関連付けること、画像を名前と関連付けること、名前を分類し且つソートすること及び電話番号又は電子メールアドレスを提供し、電話138、テレビ会議139、電子メール140又はIM141による通信を開始し且つ/あるいは容易にすること等を含む。
RF回路網108、オーディオ回路網110、スピーカ111、マイク113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、電話モジュール138は、電話番号に対応する一連の文字を入力し、住所録137中の1つ以上の電話番号にアクセスし、入力された電話番号を修正し、それぞれの電話番号にダイヤルし、会話を実行し、且つ会話が終了した際に切断又は終話するために使用されてもよい。上述したように、無線通信は、複数の通信規格、通信プロトコル及び通信技術のうちのいずれかを使用してもよい。
RF回路網108、オーディオ回路網110、スピーカ111、マイク113、タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光コントローラ158、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、連絡先リスト137及び電話モジュール138と共に、テレビ会議モジュール139は、ユーザと1人以上の他の参加者とのテレビ会議を開始し、実行し且つ終了するために使用されてもよい。
RF回路網108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、電子メールクライアントモジュール140は、電子メールを作成し、送受信し且つ管理するために使用されてもよい。画像管理モジュール144と共に、電子メールモジュール140は、カメラモジュール143で撮影された静止画像又はビデオ画像を含む電子メールの作成及び送出を非常に容易にする。
RF回路網108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力し、先に入力された文字を修正し、それぞれのインスタントメッセージを送信し(例えば、電話ベースのインスタントメッセージ用のショートメッセージサービス(SMS)プロトコル又はマルチメディアメッセージサービス(MMS)プロトコルを使用して、あるいはインターネットベースのインスタントメッセージ用のXMPP、SIMPLE又はIMPSを使用して)、インスタントメッセージを受信し、且つ受信したインスタントメッセージを表示するために使用されてもよい。いくつかの実施形態において、送受信されたインスタントメッセージは、MMS及び/又は拡張メッセージングサービス(EMS)でサポートされるようなグラフィックス、写真、オーディオファイル、ビデオファイル及び/又は他の添付ファイルを含んでもよい。本明細書で使用される場合、「インスタントメッセージング」は、電話ベースのメッセージ(例えば、SMS又はMMSを使用して送出されるメッセージ)及びインターネットベースのメッセージ(例えば、XMPP、SIMPLE又はIMPSを使用して送出されるメッセージ)の双方を示す。
RF回路網108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140及びインスタントメッセージングモジュール141と共に、音声メモモジュール142は、講義、口述、電話、会話、公演等のオーディオを録音し、且つ電子メール又はインスタントメッセージでオーディオを送出するために使用されてもよい。
タッチスクリーン112、ディスプレイコントローラ156、光センサ164、光センサコントローラ158、接触モジュール130、グラフィックスモジュール132及び画像管理モジュール144と共に、カメラモジュール143は、静止画像又はビデオ(ビデオストリームを含む)を撮像し且つそれらをメモリ102に格納するか、静止画像又はビデオの特性を修正するか、あるいは静止画像又はビデオをメモリ102から削除するために使用されてもよい。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134及びカメラモジュール143と共に、画像管理モジュール144は、静止画像及び/又はビデオ画像を配置し、修正(例えば、編集)あるいは操作し、ラベル付けし、削除し、提示し(例えば、デジタルスライドショー又はアルバムで)且つ格納するために使用されてもよい。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、オーディオ回路網110及びスピーカ111と共に、ビデオ再生モジュール145は、ビデオを表示し、提示しあるいは再生する(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部ディスプレイ上で)ために使用されてもよい。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、オーディオ回路網110、スピーカ111、RF回路網108及びブラウザモジュール147と共に、音楽再生モジュール146は、MP3ファイル又はAACファイル等の1つ以上のファイル形式で格納された録音された音楽又は他のサウンドファイルをユーザがダウンロードし且つ再生できるようにする。いくつかの実施形態において、デバイス100は、iPod(Apple Computer, Incの商標)等のMP3プレーヤの機能を含んでもよい。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、ブラウザモジュール147は、ウェブページ又はその一部、並びにウェブページにリンクされた添付ファイル及び他のファイルを検索すること、それらにリンクすること、それらを受信すること及び表示することを含むインターネット閲覧のために使用されてもよい。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134、電子メールモジュール140及びブラウザモジュール147と共に、カレンダーモジュール148は、カレンダー及びカレンダーと関連付けられたデータ(例えば、カレンダーエントリ、to doリスト等)を作成し、表示し、修正し且つ格納するために使用されてもよい。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134及びブラウザモジュール147と共に、ウィジェットモジュール149は、ユーザによりダウンロードされ且つ使用されてもよいミニアプリケーション(例えば、天気ウィジェット149−1、株ウィジェット149−2、電卓ウィジェット149−3、アラームクロックウィジェット149−4及び辞書ウィジェット149−5)であるか、あるいはユーザにより作成されてもよいミニアプリケーション(例えば、ユーザが作成したウィジェット149−6)である。いくつかの実施形態において、ウィジェットは、HTML(ハイパーテキストマーク付け言語)ファイル、CSS(カスケーディングスタイルシート)ファイル及びJavaScript(登録商標)ファイルを含む。いくつかの実施形態において、ウィジェットは、XML(Extensible Markup Language)ファイル及びJavaScriptファイル(例えば、Yahoo!ウィジェット)を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134及びブラウザモジュール147と共に、ウィジェットクリエータモジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザによって指定された部分をウィジェットに変える)ためにユーザにより使用されてもよい。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、検索モジュール151は、1つ以上の検索基準(例えば、ユーザによって指定された1つ以上の検索語)に一致するテキスト、音楽、音声、画像、ビデオ及び/又は他のファイルをメモリ102において検索するために使用されてもよい。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132及びテキスト入力モジュール134と共に、メモモジュール153は、メモ及びto doリスト等を作成し且つ管理するために使用されてもよい。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、GPSモジュール135及びブラウザモジュール147と共に、地図モジュール154は、地図及び地図と関連付けられたデータ(例えば、運転方向、特定の場所にあるかあるいはそれに近接する店及び他の地点情報に関するデータ、並びに他の場所別のデータ)を受信し、表示し、修正し且つ格納するために使用されてもよい。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、オーディオ回路網110、スピーカ111、RF回路網108、テキスト入力モジュール134、電子メールクライアントモジュール140及びブラウザモジュール147と共に、オンラインビデオモジュール155は、ユーザが、特定のオンラインビデオへのリンクを含む電子メールにアクセスし、それを閲覧し、受信し(例えば、ストリーミング及び/又はダウンロードにより)、再生し(例えば、タッチスクリーン上で又は外部ポート124を介して接続された外部ディスプレイ上で)、送出し、且つH.264等の1つ以上のファイル形式でオンラインビデオを管理できるようにする。いくつかの実施形態において、電子メールクライアントモジュール140ではなくインスタントメッセージングモジュール141は、特定のオンラインビデオへのリンクを送出するために使用される。オンラインビデオアプリケーションの更なる説明は、全ての内容が参考として本明細書に取り入れられる2007年6月20日に出願された米国特許出願第60/936,562号明細書、「Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos(オンラインビデオを再生するための可搬多機能デバイス、方法、及びグラフィカルユーザインタフェース)」及び2007年12月31日に出願された米国特許出願第11/968,067号明細書、「Portable Multifunction Device, Method, and Graphical User Interface for Playing Online Videos(オンラインビデオを再生するための可搬多機能デバイス、方法、及びグラフィカルユーザインタフェース)」において見られる。
先に識別されたモジュール及びアプリケーションの各々は、上述した1つ以上の機能及び本願で説明される方法(例えば、コンピュータにより実現された方法及び本明細書で説明される他の情報処理方法)を実行する実行可能な命令の集合に対応する。これらのモジュール(すなわち、命令の集合)が別個のソフトウェアプログラム、手順又はモジュールとして実現されなくてもよいため、これらのモジュールの種々の部分集合は、種々の実施形態において組み合わされてもよく、あるいは並べ替えられてもよい。例えばビデオプレーヤモジュール145は、音楽プレーヤモジュール146と組み合わされて単一のモジュール(例えば、図1Bのビデオ及び音楽プレーヤモジュール152)にされてもよい。いくつかの実施形態において、メモリ102は、先に識別されたモジュール及びデータ構造の部分集合を格納してもよい。更にメモリ102は、上述されていない更なるモジュール及びデータ構造を格納してもよい。
いくつかの実施形態において、デバイス100は、デバイス上の事前定義された機能の集合の動作がもっぱらタッチスクリーン112及び/又はタッチパッドを介して実行されるデバイスである。デバイス100の動作に対してタッチスクリーン及び/又はタッチパッドを主な入力/制御デバイスとして使用することにより、デバイス100上の物理入力/制御デバイス(例えば、プッシュボタン及びダイヤル等)の数を減らすことができる。
タッチスクリーン及び/又はタッチパッドを介して排他的に実行されてもよい事前定義された機能の集合は、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態において、タッチパッドは、ユーザにより触れられた場合にデバイス100をデバイス100上に表示されてもよいあらゆるユーザインタフェースからメインメニュー、ホームメニュー又はルートメニューにナビゲートする。そのような実施形態において、タッチパッドは「メニューボタン」と呼ばれてもよい。いくつかの他の実施形態において、メニューボタンは、タッチパッドではなく物理プッシュボタン又は他の物理入力/制御デバイスであってもよい。
図2は、いくつかの実施形態に従うタッチスクリーン112を有するポータブル多機能デバイス100を示す。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ以上のグラフィックスを表示してもよい。本実施形態及び以下に説明される他の実施形態において、ユーザは、例えば1本以上の指202(一定の比例に応じて図示されていない)でグラフィックスに接触するかあるいは触れることにより、グラフィックスのうちの1つ以上を選択してもよい。いくつかの実施形態において、ユーザが1つ以上のグラフィックスとの接触を遮断した場合、1つ以上のグラフィックスが選択される。いくつかの実施形態において、接触は、デバイス100と接触した1つ以上のタップ、1つ以上のスワイプ(左から右、右から左、上方向及び/又は下方向)等のジェスチャ、並びに/あるいは指のローリング(右から左、左から右、上方向及び/又は下方向)を含んでもよい。いくつかの実施形態において、グラフィックとの不注意な接触により、グラフィックを選択しなくてもよい。例えば、アプリケーションアイコン上をスウィープするスワイプジェスチャは、選択に対応するジェスチャがタップである場合には、対応するアプリケーションを選択しなくてもよい。
デバイス100は、「ホーム」ボタン又はメニューボタン204等の1つ以上の物理ボタンを更に含んでもよい。上述したように、メニューボタン204は、デバイス100上で実行されてもよいアプリケーションの集合のあらゆるアプリケーション136にナビゲートするために使用されてもよい。あるいは、いくつかの実施形態において、メニューボタンは、タッチスクリーン112のGUIにおいてソフトキーとして実現される。
一実施形態において、デバイス100は、タッチスクリーン112と、メニューボタン204と、デバイスの電源をon/offし且つデバイスをロックするプッシュボタン206と、音量調節ボタン208と、加入者識別モジュール(SIM)カードスロット210と、ヘッドセットジャック212と、ドッキング/充電外部ポート124とを含む。プッシュボタン206は、ボタンを押下し且つ事前定義された時間間隔の間ボタンを押下状態で保持することによりデバイスの電源をon/offし、ボタンを押下し且つ事前定義された時間間隔が経過する前にボタンを放すことによりデバイスをロックし、且つ/あるいはデバイスをロック解除するか又はロック解除処理を開始するために使用されてもよい。別の一実施形態において、デバイス100は、マイク113を介していくつかの機能を起動又は停止する口頭入力を更に受け入れてもよい。
図3は、いくつかの実施形態に従うディスプレイ及び接触感知表面を備えた例示的な演算装置を示すブロック図である。デバイス300はポータブル機である必要はない。いくつかの実施形態において、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、テーブルコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、教育デバイス(例えば、子供の知育玩具)、ゲームシステム又は制御デバイス(例えば、ホームコントローラ又は産業用コントローラ)である。一般にデバイス300は、1つ以上の処理ユニット(CPU)310と、1つ以上のネットワーク又は他の通信インタフェース360と、メモリ370と、これらの構成要素を相互接続する1つ以上の通信バス320とを含む。通信バス320は、システム構成要素間の通信を相互接続し且つ制御する回路網(チップセットと呼ばれる場合もある)を含んでもよい。デバイス300は、いくつかの実施形態においてタッチスクリーン112であるディスプレイ340を備える入出力(I/O)インタフェース330を含む。I/Oインタフェース330は、キーボード及び/又はマウス(又は他のポインティングデバイス)350と、タッチパッド355とを更に含んでもよい。メモリ370は、DRAM、SRAM、DDR RAM等の高速ランダムアクセスメモリ又は他のランダムアクセス固体メモリ素子を含み、1つ以上の磁気ディスク記憶装置、光ディスク記憶装置、フラッシュメモリ素子等の不揮発性メモリ又は他の不揮発性固体記憶装置を含んでもよい。メモリ370は、オプションとしてCPU310から遠隔に配置された1つ以上の記憶装置を含んでもよい。いくつかの実施形態において、メモリ370は、ポータブル多機能デバイス100(図1)のメモリ102に格納されたプログラム、モジュール及びデータ構造に類似するプログラム、モジュール及びデータ構造又はそれらの部分集合を格納する。更にメモリ370は、ポータブル多機能デバイス100のメモリ102に存在しない更なるプログラム、モジュール及びデータ構造を格納してもよい。例えばデバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、スプレッドシートモジュール390及び/又は添付ファイル編集モジュール133を格納してもよく、ポータブル多機能デバイス100(図1)のメモリ102は、これらのモジュールを格納しなくてもよい。
図3の先に識別された要素の各々は、上述したメモリ素子のうちの1つ以上に格納されてもよい。先に識別されたモジュールの各々は、上述した機能を実行する命令の集合に対応する。先に識別されたモジュール又はプログラム(すなわち、命令の集合)が別個のソフトウェアプログラム、手順又はモジュールとして実現されなくてもよいため、これらのモジュールの種々の部分集合は、種々の実施形態において組み合わされてもよく、あるいは並べ替えられてもよい。いくつかの実施形態において、メモリ370は、先に識別されたモジュール及びデータ構造の部分集合を格納してもよい。更にメモリ370は、上述されていない更なるモジュール及びデータ構造を格納してもよい。
次に、ポータブル多機能デバイス100上で実行されてもよいユーザインタフェース(「UI」)の実施形態を参照する。
図4A及び図4Bは、いくつかの実施形態に従うポータブル多機能デバイス100上のアプリケーションのメニュー用の例示的なユーザインタフェースを示す。同様のユーザインタフェースは、デバイス300上で実現されてもよい。いくつかの実施形態において、ユーザインタフェース400Aは、以下の要素、あるいはその部分集合又は上位集合を含む。
●セルラ信号及びWi−Fi信号等の無線通信についての信号強度標識402
●時刻404
●Bluetooth標識405
●バッテリ状態標識406
●以下のような頻繁に使用されるアプリケーションについてのアイコンを含むトレイ408
○出られなかった電話又は音声メールメッセージの数の標識414を含んでもよい電話138
○未読電子メールの数の標識410を含んでもよい電子メールクライアント140
○ブラウザ147及び
○音楽プレーヤ146、並びに
●以下のような他のアプリケーションに対するアイコン
○IM141
○画像管理144
○カメラ143
○ビデオプレーヤ145
○天気149−1
○株149−2
○音声メモ142
○カレンダー148
○電卓149−3
○アラームクロック149−4
○辞書149−5及び
○ユーザが作成したウィジェット149−6
いくつかの実施形態において、ユーザインタフェース400Bは、以下の要素、あるいはその部分集合又は上位集合を含む。
●上述したような402、404、405、406、141、148、144、143、149−3、149−2、149−1、149−4、410、414、138、140及び147
●地図154
●メモ153
●以下に更に説明するように、デバイス100に対する設定及びその種々のアプリケーション136へのアクセスを提供する設定412
●iPod(Apple Computer, Incの商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤモジュール152、並びに
●YouTube(Google、Inc.の商標)モジュール155とも呼ばれるオンラインビデオモジュール155
図4Cは、いくつかの実施形態に従うポータブル電子デバイスをロック解除する例示的なユーザインタフェースを示す。いくつかの実施形態において、ユーザインタフェース400Cは、以下の要素、あるいはその部分集合又は上位集合を含む。
●指ジェスチャにより移動してデバイスをロック解除するロック解除画像450
●視覚的な手がかりを提供してジェスチャをロック解除する矢印455
●更なる手がかりを提供してジェスチャをロック解除するチャネル460
●時刻465
●曜日466
●日付467及び
●壁紙画像470
いくつかの実施形態において、デバイスは、ユーザインタフェースロック状態中に接触感知ディスプレイとの接触(例えば、ロック解除画像450上又はそれに近接して接触するユーザの指)を検出する。デバイスは、接触に従ってロック解除画像450を移動させる。検出された接触がチャネル460にわたりロック解除画像を移動させる等の事前定義されたジェスチャに対応する場合、デバイスはユーザインタフェースロック解除状態に遷移する。逆に、検出された接触が事前定義されたジェスチャに対応しない場合、デバイスはユーザインタフェースロック状態を維持する。上述したように、デバイスをロック解除するためにタッチスクリーン上のジェスチャを使用する処理は、全ての内容が参考として本明細書に取り入れられる2005年12月23日に出願された米国特許出願第11/322,549号明細書、「Unlocking A Device By Performing Gestures On An Unlock Image(アンロック画像上でジェスチャを行うことによるデバイスのアンロック)」及び2005年12月23日に出願された米国特許出願第11/322,550号明細書、「Indication Of Progress Towards Satisfaction Of A User Input Condition(ユーザの入力条件を満足することに向けた進行表示)」において説明される。
次に、ディスプレイ及び接触感知表面を備えた演算装置、例えばデバイス300又はポータブル多機能デバイス100上で実現されてもよいユーザインタフェース(「UI」)及び関連付けられた処理の例示的な実施形態を参照する。
図5A〜図5NNは、いくつかの実施形態に従う接触感知表面を備えた電子デバイス用のアクセシビリティユーザインタフェースを示す。これらの図において、ユーザインタフェース上に示されたジェスチャ(例えば、UI500A、UI500K、UI500P及びUI500Uに示されたジェスチャ)は、タッチスクリーンディスプレイ、トラックパッド又は他の接触感知表面上でユーザにより実行されてもよい。例示的なジェスチャがユーザインタフェース上に図示されていることは、本明細書で開示する方法を実行するために、タッチスクリーンディスプレイ上でこのジェスチャを実行することを要求しているわけではない。例えば、いくつかの実施形態において、ジェスチャは代わりにトラックパッド上で実行されてもよい。これらの図のアクセシビリティユーザインタフェースは、本発明において後で説明する処理を示すために使用される。
可聴ナビゲーション
図5A〜図5NN及び図6A〜図6Tに示された例示的なユーザインタフェースは、電子デバイス上のユーザインタフェース要素間のタッチベースのナビゲーション用のアクセシビリティインタフェースに対するものである。図5A〜図5NN及び図6A〜図6Tに示された例示的なユーザインタフェースは、視覚的に示されない「現在のフォーカス」を含む。これらの例示的なユーザインタフェースの多くは、視覚的に表示された「アクセシビリティカーソル」を更に含む。アクセシビリティカーソルは、現在のフォーカスがある場所を示す。現在のフォーカスを特定のユーザインタフェース要素と関連付けることにより、デバイスは、選択された場合にその特定のユーザインタフェース要素と関連付けられた動作を実行する。例えば、UI500A(図5A)において、表示されたアクセシビリティカーソル502及び現在のフォーカスの双方がテキスティングアイコン141上にあるかあるいはテキスティングアイコン141にあるため、そのアイコンが選択された場合、ユーザインタフェースを実行するデバイスは、アイコン141と関連付けられたインスタントメッセージングアプリケーションを実行する。
アクセシビリティカーソルは、いくつかの実施形態においてユーザインタフェースに視覚的に表示されるが、他の実施形態において視覚的に表示されない。実際に、いくつかの実施形態において、ユーザインタフェースが視覚的に表示される必要は全くない。これらの実施形態において、通信可能にデバイスに取り付けられるかあるいは配設されてもよい可聴フィードバック及び/又は触覚フィードバック(例えば、点字キーボード)は、本明細書で開示される方法に従って、表示されないユーザインタフェース要素の中でユーザがタッチベースのナビゲーションを実行できるようにユーザに提供される。しかし、図5A〜図5NNの例示的なユーザインタフェースにおいて、現在のフォーカスは、アクセシビリティカーソル502が位置付けられる(アクセシビリティカーソルが表示される場合)同一のユーザインタフェース要素にあるか、あるいは同一のユーザインタフェース要素上にある。
また、いくつかの実施形態において、表1に含まれた例示的なジェスチャのうちのいくつか又は全ては、本明細書で説明されるようなアクセシビリティインタフェースにおいて利用されてもよい。表1において、「接触感知表面」上のジェスチャは、タッチスクリーンディスプレイ、トラックパッド又は他の接触感知表面上で実行されるジェスチャを示す。
表1のアクセシビリティジェスチャは例示的なものにすぎない。いくつかの実施形態において、互いに反対のジェスチャへの応答(例えば、右方向ジェスチャに対する対応する左方向ジェスチャ、又は上方向ジェスチャに対する対応する下方向ジェスチャ)は、表1に示されたものとは逆であってもよい。例えば、1本指の右フリックは現在のフォーカスを前の要素に移動させてもよく、1本指の左フリックは現在のフォーカスを次の要素に移動させてもよい。いくつかの実施形態において、互いに反対のジェスチャへの応答は、設定又はオプションメニュー等を介してユーザが設定できる。
いくつかの実施形態において、アクセシビリティユーザインタフェースにより、ユーザは、コマンドを事前定義されたジェスチャと関連付けることができる。いくつかの実施形態において、ジェスチャは、修飾キー(例えば、コントロールキー、オプションキー、コマンドキー又はシフトキー)と組み合わされてもよく、ユーザが選択するあらゆるコマンドにマッピングされてもよい。例えば、ユーザは、作動されたコントロールキーを伴う2本指の回転ジェスチャを、アクセシビリティ情報の発話速度を調整するコマンドへとマッピングすることを選択してもよい。
UI500A〜UI500G(図5A〜図5G)は、1つのユーザインタフェース画面上に表示された、ユーザインタフェース要素の配列を進んでいく一例を示す。
UI500A(図5A)は、ポータブル多機能デバイス100上のアプリケーションのメニューに対する例示的なユーザインタフェースを示す。ユーザインタフェースは、アプリケーションアイコン、ここではテキスティングアイコン141を取り囲むアクセシビリティカーソル502を含む。アクセシビリティカーソル502がテキスティングアイコン141にあるため、現在のフォーカスは、テキスティングアイコン141にあるかあるいはテキスティングアイコン141上にある。
指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ504は、最初の接触504−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(504−2)。尚、UI500Aにおいて、例示的なユーザジェスチャ504は、テキスティングアイコン141、写真アプリケーションアイコン144又はアクセシビリティユーザインタフェースに表示された他のあらゆるアイコンに接触することとは無関係である。
UI500B(図5B)は、ユーザジェスチャ504に従う例示的なユーザインタフェースを示す。アクセシビリティカーソル502は、ユーザジェスチャ504に応答してテキスティングアイコン141から写真アプリケーションアイコン144に移動した。これは、次に現在のフォーカスがテキスティングアイコン141ではなく写真アプリケーションアイコン144にあるか、あるいは写真アプリケーションアイコン144上にあることを示す。「写真」又は「写真アプリケーション」、あるいは「タップして写真を選択する」等の写真アプリケーションアイコン144と関連付けられた可聴情報は、ユーザジェスチャ504に応答して更に出力される。
UI500C(図5C)は、別の指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ506を例示的なユーザインタフェース上に示す。ジェスチャ506は、最初の接触506−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(506−2)。尚、例示的なユーザジェスチャ506は、写真アプリケーションアイコン144、カメラアプリケーションアイコン143又はアクセシビリティユーザインタフェースに表示された他のあらゆるアイコンに接触することとは無関係のままである。
UI500D(図5D)は、ユーザジェスチャ506(図5C)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502がカメラアプリケーションアイコン143に移動したことを示す。「カメラ」又は「カメラアプリケーション」、あるいは「タップしてカメラを選択する」等のカメラアプリケーションアイコン143と関連付けられた可聴情報は、ユーザジェスチャ506に応答して更に出力される。
UI500Dは、別の指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ508を例示的なユーザインタフェース上に更に示す。ジェスチャ508は、最初の接触508−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(508−2)。尚、例示的なユーザジェスチャ508は、カメラアプリケーションアイコン143、ビデオアプリケーションアイコン145又はアクセシビリティユーザインタフェースに表示された他のあらゆるアイコンに接触することとは無関係のままである。
UI500E(図5E)は、ユーザジェスチャ508(図5D)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502がビデオアプリケーションアイコン145に移動したことを示す。「ビデオ」又は「ビデオアプリケーション」、あるいは「タップしてビデオを選択する」等のビデオアプリケーションアイコン145と関連付けられた可聴情報は、ユーザジェスチャ508に応答して更に出力される。
UI500Eは、別の指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ510を例示的なユーザインタフェース上に更に示す。ジェスチャ510は、最初の接触510−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(510−2)。尚、例示的なユーザジェスチャ510は、天気アプリケーションアイコン149−1に偶発的に接触するが、ジェスチャ510の検出、解釈及びジェスチャ510への応答は、ビデオアプリケーションアイコン145、天気アプリケーションアイコン149−1又はアクセシビリティユーザインタフェースに表示された他のあらゆるアイコンに接触することとは無関係のままである。
UI500F(図5F)は、ユーザジェスチャ510(図5E)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502がアプリケーションアイコン514の第1の行からアプリケーションアイコン516の次の行の天気アプリケーションアイコン149−1に移動したことを示す。「天気」又は「天気アプリケーション」、あるいは「タップして天気を選択する」等の天気アプリケーションアイコン149−1と関連付けられたオーディオ情報は、ユーザジェスチャ510に応答して更に出力される。いくつかの実施形態において、可聴情報は、現在のフォーカスがユーザジェスチャ510に応答して別の行のユーザインタフェース要素に移動したことを示すラッピング音を更に含む。ユーザは、左から右への指スワイプジェスチャ又は指フリックジェスチャ(不図示)を入力し続けることにより、アクセシビリティユーザインタフェースにおいてユーザインタフェース要素の集合を介して左から右、上部から下部にナビゲートし続けてもよい。
UI500Fは、右から左の指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ512を例示的なユーザインタフェース上に更に示す。ユーザジェスチャ504、506、508及び510の方向とはほぼ逆であるジェスチャ512は、最初の接触512−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の左端に向けて移動する(512−2)。尚、例示的なユーザジェスチャ512は、天気アプリケーションアイコン149−1、ビデオアプリケーションアイコン145又はアクセシビリティユーザインタフェースに表示された他のあらゆるアイコンに接触することとは無関係のままである。
UI500G(図5G)は、ユーザジェスチャ512(図5F)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502がアプリケーション514の第1の行のビデオアプリケーションアイコン145に再び移動したことを示す。「ビデオ」又は「ビデオアプリケーション」、あるいは「タップしてビデオを選択する」等のビデオアプリケーションアイコン145と関連付けられた可聴情報は、ユーザジェスチャ512に応答して更に出力される。いくつかの実施形態において、可聴情報は、現在のフォーカスがユーザジェスチャ512に応答して別の行のユーザインタフェース要素に移動したことを示すラッピング音を更に含む。従って、場所に依存しない一方向のユーザジェスチャは、所定のユーザインタフェース要素の配列又は順序で現在のフォーカスを進めてもよく、場所に依存しないほぼ逆の方向のユーザジェスチャは、所定のユーザインタフェース要素の配列又は順序で現在のフォーカスを後退、すなわち戻してもよい。ユーザインタフェース要素の配列を進むことあるいは戻すことは、ユーザインタフェース要素の行、画面、階層、ページ及び/又はレベルを介して上又は下に移動することを含んでもよい。
UI500H〜UI500I(図5H〜図5I)は、場所に依存するジェスチャを使用して現在のフォーカス及びアクセシビリティカーソルを移動させる一例を示す。この例において、アクセシビリティカーソル502(及び現在のフォーカス)は、最初にビデオアイコン145上にあるいかあるいはビデオアイコン145にある。UI500Hに示されたユーザジェスチャ517は、音楽アプリケーションアイコン146上の1本指のタップ等のタッチスクリーン112上の静止した接触である。
UI500I(図5I)は、ユーザジェスチャ517(図5H)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502が音楽アプリケーションアイコン146に移動することを示す。「音楽」又は「音楽アプリケーション」、あるいは「タップして音楽を選択する」等の音楽アプリケーションアイコン146と関連付けられた可聴情報は、ユーザジェスチャ517に応答して更に出力される。従って、アクセシビリティユーザインタフェースは、指ジェスチャ(例えば、ジェスチャ517)の場所にあるユーザインタフェース要素に関するアクセシビリティ情報を提供するナビゲーションのための場所に依存する指ジェスチャと、指ジェスチャ(例えば、ジェスチャ504、506、508、510及び512)の場所に依存しないユーザインタフェース要素に関するアクセシビリティ情報を提供するナビゲーションのための場所に依存しない指ジェスチャの双方を含んでもよい。
UI500I〜UI500J(図5I〜図5J)は、種々のユーザインタフェース画面上に表示されたユーザインタフェース要素の配列を進んでいく一例を示す。デバイス上で種々のアプリケーションを開始するユーザインタフェース要素の第1の画面518がUI500Iに示され、ユーザインタフェース要素の第2の画面520がUI500Jに示される。この例において、アクセシビリティカーソル502(及び現在のフォーカス)は、最初にユーザインタフェース要素の第1の画面518の最後のユーザインタフェース要素である音楽アプリケーションアイコン146上にあるか、あるいは音楽アプリケーションアイコン146にある。UI500Iに示されたユーザジェスチャ519は、最初の接触519−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(519−2)。
UI500J(図5J)は、ユーザジェスチャ519(図5I)に応答して、現在のフォーカス、すなわちアクセシビリティカーソル502が第1の画面518から第2の画面520のユーザインタフェース要素の集合の第1のユーザインタフェース要素、すなわちオンラインビデオアプリケーションアイコン155に移動したことを示す。「オンラインビデオ」又は「オンラインビデオアプリケーション」、あるいは「タップしてオンラインビデオを選択する」等のオンラインビデオアプリケーションアイコン155と関連付けられた可聴情報は、ユーザジェスチャ519に応答して更に出力される。いくつかの実施形態において、可聴情報は、現在のフォーカスがユーザジェスチャ519に応答して別のページ/画面上でユーザインタフェース要素に移動したことを示す画面変化音を更に含む。
UI500K〜UI500O(図5K〜図5O)は、ユーザインタフェース要素の配列を一度に1文字進む一例を示す。
UI500K(図5K)は、いくつかの実施形態に従う電子デバイス上でテキストを入力するためのユーザインタフェース要素間のタッチベースのナビゲーション用の例示的なユーザインタフェースを示す。現在のフォーカスは、第1のテキスト列534(ここでは列「client」)の前にテキストカーソル532が表示されるユーザ名テキスト入力要素530内にある。ユーザ名テキスト入力要素530は、ユーザ名を入力するためのものであり、対応する第1のユーザインタフェース要素ラベル536「User Name」を有する。パスワードテキスト入力要素538はパスワードを入力するためのものであり、対応する第2のユーザインタフェース要素ラベル540「Password」及びオプションとして置換プライバシー文字で表示される第2のテキスト列542を有する。
場所に依存しないスワイプジェスチャ又はフリックジェスチャ等のユーザジェスチャ544は、最初の接触544−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の下端に向けて移動する(544−2)。尚、ジェスチャ544の検出、解釈及びジェスチャ544への応答は、アクセシビリティユーザインタフェースに表示された特定のあらゆるアイコンに接触することとは無関係である。
UI500L(図5L)は、ユーザジェスチャ544に従う例示的なユーザインタフェースを示す。ユーザジェスチャ544に応答して、テキストカーソル532は、1文字、すなわちユーザ名テキスト入力要素530内の第1のテキスト列534の前の位置から列「client」の「c」の直後の位置に進んだ。これは、テキストカーソル532がユーザ名テキスト入力要素530内の第1のテキスト列534において列「client」の「c」と「l」との間にあることを示す。テキストカーソル532の移動と関連付けられたアクセシビリティ情報、例えば文字「c」の発音は、ユーザジェスチャ544に応答して更に出力される。
UI500L(図5L)は、別の場所に依存しない指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ546を例示的なユーザインタフェース上に更に示す。ジェスチャ546は、ユーザジェスチャ544とはほぼ逆に、すなわち最初の接触546−1をタッチスクリーン112上に有してこの接触はすなわちタッチスクリーン112の上端に向けて移動する(546−2)。
UI500M(図5M)は、ユーザジェスチャ546に応答して、テキストカーソル532が1文字後退し、現在のフォーカスがユーザ名テキスト入力要素530内の第1のテキスト列534の前の位置に戻ることを示す。テキストカーソル532の移動と関連付けられたアクセシビリティ情報、例えば文字「c」の発音は、ユーザジェスチャ546に応答して更に出力される。
UI500N(図5N)は、テキストカーソル532がユーザ名テキスト入力要素530内の第1のテキスト列534の末尾にある一例を示す。UI500N(図5N)は、別の場所に依存しない指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ550を例示的なユーザインタフェース上に示す。ジェスチャ550は、最初の接触550−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の下端に向けて移動する(550−2)。ジェスチャ550に応答して、テキストカーソル532は、第1のテキスト列534の末尾にあるままであり(図5N)、テキスト入力要素530のテキストの末尾に到達したことを示す境界に対するビープ音又は他の可聴表示等の可聴情報が出力される。
図5Nは、1本指下フリックジェスチャ550とは別のジェスチャ、すなわち1本指の右フリックジェスチャ551を更に示す。ジェスチャ551は、最初の接触551−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の右端に向けて移動する(551−2)。
UI500O(図5O)は、ユーザジェスチャ551(図5N)に応答して、デバイスがユーザ名テキスト入力要素530(テキストカーソル532が第1のテキスト列534の末尾にあった)からパスワードテキスト入力要素538内の第2のテキスト列542の先頭にテキストカーソル532を進めることを示す。テキストカーソル532の移動と関連付けられたアクセシビリティ情報、例えば「パスワード」又は「パスワードフィールド」の発音は、ユーザジェスチャ551に応答して更に出力される。
文書部分可聴表示
図5P〜図5Tは、いくつかの実施形態に従う、タッチベースの文書ナビゲーション中に文書でナビゲートし且つ文書部分表示を可聴に通信する例示的なアクセシビリティユーザインタフェースを示す。これらの図のユーザインタフェースは、図8A及び図8Bに関連して以下に説明する処理を示すために使用される。
UI500P(図5P)は、文書部分表示を通信する例示的なユーザインタフェースを示す。文書表示エリア552は、文書全体(文書が十分に小さい場合)又は文書が大きすぎるために文書表示エリア552内に収まらない場合は文書の一部を表示する。UI500Pにおいて、文書表示エリア552内に表示された例示的な文書553は、大きすぎるために表示エリア内に収まらない。しかし、文書553は、4つの部分、すなわち553−1(図5P)、553−2(図5Q)、553−3(図5R)及び553−4(図5S)で表示されてもよい。本明細書に示された例等のいくつかの実施形態において、オプションの文書部分視覚表示554は、表示されている文書の部分及び文書内の関係した場所を示すように表示される。図5Pにおいて、文書部分視覚表示554は、文書の冒頭部分553−1が文書表示エリア552内に表示されていることを示すように文書表示エリア552の上部に近接して表示される。
例示的な本実施形態において3本指で実行される複数の指のユーザジェスチャ555(図5P)は、最初の接触555−1、555−2及び555−3をタッチスクリーン112上に有し、この接触はタッチスクリーン112の上端に向けて移動する(555−4、555−5及び555−6)。換言すると、ジェスチャ555は、3本指の上方向フリックジェスチャ又は3本指の上方向スワイプジェスチャである(表1)。
UI500Q(図5Q)は、ユーザジェスチャ555に応答して、ユーザインタフェースが文書表示エリア552内に文書の冒頭553−1を表示するのを中止し、且つ文書の隣接する第2の部分553−2を表示することを示す。従って、文書部分視覚表示554は、文書表示エリア552の下部分に表示される。更にアクセシビリティユーザインタフェースは、文書部分可聴表示、例えば「部分2/4」、「ページ2/4」又は「表示されている文書の部分2/4」を示す発音されたメッセージを出力する。
例示的な本実施形態において3本指で実行される複数の指のユーザジェスチャ556(図5Q)は、最初の接触556−1、556−2及び556−3をタッチスクリーン112上に有し、この接触はタッチスクリーン112の上端に向けて移動する(556−4、556−5及び556−6)。換言すると、ジェスチャ556は、別の3本指の上方向フリックジェスチャ又は3本指の上方向スワイプジェスチャである(表1)。
UI500R(図5R)は、ユーザジェスチャ556に応答して、ユーザインタフェースが文書表示エリア552内に文書の第2の部分553−2を表示するのを中止し、且つ文書の隣接する第3の部分553−3を表示することを示す。従って、文書部分視覚表示554は、文書の第2の部分553−2が文書表示エリア552に表示されていた時にUI500Qに表示されたよりも文書表示エリア552の更に下の部分に表示される。更にアクセシビリティユーザインタフェースは、文書部分可聴表示、例えば「部分3/4」、「ページ3/4」又は「表示されている文書の部分3/4」を示す発音されたメッセージを出力する。
例示的な本実施形態において3本指で実行される複数の指のユーザジェスチャ557(図5R)は、最初の接触557−1、557−2及び557−3をタッチスクリーン112上に有し、この接触はタッチスクリーン112の上端に向けて移動する(557−4、557−5及び557−6)。換言すると、ジェスチャ557は、別の3本指の上方向フリックジェスチャ又は3本指の上方向スワイプジェスチャである(表1)。
UI500S(図5S)は、複数の指のユーザジェスチャ557に応答して、ユーザインタフェースが文書表示エリア552内に文書の第3の部分553−3を表示するのを中止し、且つこの例では文書の結末を含む文書の隣接する第4の部分553−4を表示することを示す。従って、文書部分視覚表示554は、文書表示エリア552の下部に表示される。更にアクセシビリティユーザインタフェースは、文書部分可聴表示、例えば「部分4/4」、「ページ4/4」又は「表示されている文書の部分4/4」を示す発音されたメッセージを出力する。
例示的な本実施形態において3本指で実行される複数の指のユーザジェスチャ558(図5S)は、最初の接触558−1、558−2及び558−3をタッチスクリーン112上に有し、この接触はタッチスクリーン112の下端に向けて(すなわち、ユーザジェスチャ555、556及び557とはほぼ逆の方向に)移動する。換言すると、ジェスチャ558は、3本指下方向フリックジェスチャ又は3本指下方向スワイプジェスチャである(表1)。
UI500T(図5T)は、ユーザジェスチャ558に応答して、ユーザインタフェースが文書表示エリア552内に文書の第4の部分553−4を表示するのを中止し、且つ文書の隣接する第3の部分553−3を再表示することを示す。文書部分視覚表示554の表示は、文書の第3の部分553−3を表示することに対応する場所に移動する。更にアクセシビリティユーザインタフェースは、文書部分可聴表示、例えば「部分3/4」、「ページ3/4」又は「表示されている文書の部分3/4」を示す発音されたメッセージを出力する。
UI500P〜UI500T(図5P〜図5T)に表示された例示的な実施形態において、文書553の部分は、上部から下部に配置されたページ又は文書部分として表示される。別の後続の文書部分を表示できる場合、タッチスクリーン112の上部に向けて進行する3本指のフリックジェスチャは、現在表示されている文書部分の下に隣接する文書部分を表示する。いくつかの実施形態(不図示)において、一連のページ又は文書部分は、タッチベースの文書ナビゲーションのために並べて配置されてもよい。これらの実施形態において、ユーザジェスチャは、隣接する文書部分又はページの並べられた配置と同様に向けられていてもよい。例えば、タッチスクリーンの右又は左に向けて進行する3本指ユーザジェスチャは、それぞれ、現在表示されている部分又はページに隣接する文書の前の部分又はページ、あるいは次の部分又はページを表示する。
アクセシビリティユーザインタフェースを回避して、基礎となるユーザインタフェースに進む
いくつかの実施形態において、ユーザは、全てのユーザ入力及びアプリケーションを通常通りに処理する、基礎となる標準的な非アクセシビリティユーザインタフェースへと、イベントを通過して進むこと(すなわち、アクセシビリティユーザインタフェースの状況から出ること)を可能とするジェスチャを実行してもよい。いくつかの実施形態において、通過できるようにするために使用されたジェスチャは、第2のタップが事前定義された期間、例えば0.05秒〜1.5秒の時間接触感知表面と接触したままであるダブルタップジェスチャである(表1)。
ナビゲーション設定ジェスチャ
本明細書で説明されるいくつかのアクセシビリティナビゲーションジェスチャは、テキストを読むため又は入力するために、テキストベースのユーザインタフェース要素の中をナビゲートする。いくつかのジェスチャにより、ウェブページ上のユーザインタフェース要素間をナビゲートできる。更に他のジェスチャにより、制御、例えば時計の設定、温度計、音量設定等の変更を操作できる。
いくつかの実施形態において、共通のジェスチャは、テキスト、ウェブページ及び/又は制御のアクセシブルナビゲーションを実行する方法の設定を変更するために使用されてもよい(例えば、表1の1本指の上フリックジェスチャ又は1本指下フリックジェスチャ、あるいは1本指の上スワイプジェスチャ又は1本指下スワイプジェスチャに応答して)。例えば、接触感知表面上の2本指の回転ジェスチャ又は2本指のツイスティングジェスチャは、仮想ダイヤル、回転子又はつまみを「回し」、オプション間で選択するために使用されてもよい(以下において「回転子」又は「回転子制御」と呼ばれ、この種のジェスチャは、本明細書で「回転子ジェスチャ」と呼ばれてもよい)。この「回転子」制御は、アクセシビリティユーザインタフェースにおける、ある特定のナビゲーションジェスチャの検出に対するデバイスの応答を変更するための、不可視ダイヤルとしての役割を果たす。
回転子制御の効果は、使用状況、すなわちアクセシビリティユーザインタフェースにより現在ナビゲートされているコンテンツの種類に依存する。例えば、テキストを電子メールで読む場合、回転子は、アクセシブルナビゲーションを文字単位のナビゲーションから単語単位のナビゲーションに変更する等、一方のナビゲーション解像度のレベルから他方のナビゲーション解像度のレベルに切り替えてもよい。更に回転子は、新しいアクセシブルナビゲーション解像度を反映するように、可聴テキスト出力の発出を変更する。従って、コンテンツに対応するテキストは、現在のアクセシブルナビゲーション解像度に従って、ナビゲーションジェスチャに応答して単語単位又は文字単位で発音される。別の例として、回転子は、アクセシブルナビゲーションを変更するために、及びウェブページをブラウジングしている際の可聴テキスト出力の発出を変更するために使用されてもよい。例えば、1つ以上の回転子ジェスチャに応答して、デバイスは、ウェブページに対応するテキストを単語単位でナビゲートし且つ発音するか、ウェブページに対応するテキストを文字単位でナビゲートし且つ発音するか、ウェブページヘッダ間をナビゲートし且つウェブページのヘッダがどんなものであるかを示すテキストを発音するか、ウェブページ上のリンク間をナビゲートし且つウェブページ上のこれらのリンク(リンクの全て、訪問されたリンクのみ、又はまだ訪問されていないリンクのみ)を発音するか、ウェブページ上の形態要素間をナビゲートし且つウェブページからの形態要素を発音するか、あるいはウェブページ上の画像間をナビゲートし且つこれらの画像の説明を発音するように設定されてもよい。
表2において、アクセシビリティユーザインタフェース内のナビゲーションコンテキストに依存する例示的な回転子オプションを説明する。
いくつかの実施形態において、回転子ベースのジェスチャは、距離をもって離れている、第1の指接触と第2の指接触とを含み、第1の指接触と第2の指接触との距離は中心点を有し、第1の指接触と第2の指接触とはタッチスクリーンディスプレイ上でこの中心点の周りを回転する。基本的には上述のように、この回転ジェスチャは一方向に又は反対方向につまみを回転させ又はひねることを模している。ジェスチャが進むと、この模されたつまみの回転は、現在のナビゲーション可能な単位型を変更する。
いくつかの実施形態において、回転子ベースのジェスチャは、第1の指接触を接触感知表面上に配置することと、第2の指接触を接触感知表面に同時に配置することと、第1の指接触が静止したままである間に第1の指接触の周りに第2の指接触を回転させることとを含む。本実施形態において、第1の指接触は、第2の指接触による回転の中心点としての役割を果たす。
例えば、接触感知表面上でのユーザのナビゲーション要求に応答して、一度に1つのナビゲーション可能な「単位」ずつテキストがそのユーザへと読まれている、接触感知表面を備えたアクセシブル電子デバイスを考える。すなわち、ユーザのナビゲーション要求の各々により、1つの単位が、換言すると文字単位、単語単位、行単位等で、ユーザへと読まれる。ナビゲート可能な単位型を変更することは、回転子ジェスチャ等のナビゲーション設定ジェスチャにより達成される。いくつかの実施形態において、回転子ジェスチャは、文字単位でテキストを読むことと単語単位でテキストを読むこととの間でナビゲート可能な単位設定をトグルする。いくつかの実施形態において、回転子ジェスチャは、最小から最大に(又は逆に)単位型を順番に配列することによりナビゲーション単位型を変更する。例えば、文字は最小のナビゲート可能な単位型であり、次に単語、文、行、段落及びページの順になる。
調整されてもよいナビゲート可能な単位の他の限定しない例は、ウェブコンテンツ、例えばヘッダ、リンク、訪問済みのリンク等、日付形式、時間形式、言語設定、測定単位、温度目盛等の構成設定、スプリッタユーザインタフェース要素(すなわち、別のビューと比較したビューの空間の広さを制御する単一行ユーザインタフェース要素、例えば電子メールアプリケーション等のアプリケーションにおける電子メールメッセージテーブルと電子メールメッセージプレビューコンテンツウィンドウとの間のスプリッタライン)、水平スライダ、垂直スライダ又は円形スライダ、あるいは連続した又は離散した値範囲を有する他の種類の制御である。
いくつかの実施形態において、ナビゲーション設定は、アクセシブルなシステムの接触感知表面上で場所に依存しない方法で実行されるジェスチャにより調整される。従って、システムがアクセシビリティ使用で設計されているため、現在のナビゲート可能な単位型を調整するために、接触感知表面の何らかの特定の部分又は又は何らかの特定のユーザインタフェース要素に接触する必要はない。いくつかの実施形態において、回転子を調整するジェスチャは、何らかのユーザインタフェース要素に接触することとは無関係である。
UI500K〜UI500M(それぞれ、図5K〜図5M)と共に、UI500U〜UI500CC(それぞれ、図5U〜図5CC)は、本明細書で開示されたアクセシビリティユーザインタフェースにおいてナビゲーション設定を調整する回転子ジェスチャの例示的な動作を示す例示的なユーザインタフェースである。
上述したように、UI500K〜UI500Mは、いくつかの実施形態に従う電子デバイス上でテキストを入力するためのユーザインタフェース要素間のタッチベースのナビゲーション用の例示的なユーザインタフェースを示す。UI500K〜UI500Mにおいて、テキストカーソル532のナビゲーションは、文字単位に基づいて設定される。例えば、それぞれユーザジェスチャ544(図5K)及び546(図5L)に応答して1文字進み及び後退するテキストカーソル532の位置を参照。
UI500U(図5U)において、アクセシビリティカーソル502により強調表示されているために、ユーザ名テキスト入力要素530が選択される。現在のフォーカスはユーザ名テキスト入力要素530内にあり、ここでテキストカーソル532はテキスト列560(ここでは列「client li」)の前に表示されている。回転子ジェスチャ562は、接触感知表面上で回転するかあるいはツイストする(562−3及び562−4)第1の指接触562−1及び第2の指接触562−2を含み、つまみ又は回転子を回すことを模している。
UI500Uでは可視ではないが、電子デバイスは、回転子ジェスチャ562を検出することに応答して現在のナビゲート可能な単位型を文字から単語に変更する。ナビゲート可能な単位型に関するアクセシビリティ情報は、回転子ジェスチャ562を検出することに応答して更に発せられる。この場合、アクセシビリティ情報は、現在のナビゲート可能な単位型がこの時点で「単語」に設定されることをユーザに示す(例えば、出力が発話され、「単語」又は「単語によるナビゲート」と発話する)。この例において、回転子ジェスチャ562は、反時計回りの回転パターンで実行される。
いくつかの実施形態(不図示)において、アクセシビリティ情報は、現在のナビゲート可能な単位型の視覚表示を提供するグラフィック表示を含んでもよい。
いくつかの実施形態において、反時計回りの回転パターンを使用することにより、増加インクリメントで(例えば、文字から単語、行、文及び再び文字に)現在のナビゲート可能な単位型を修正し、時計回りの回転パターンを使用することにより、減少インクリメントで(例えば、文から行、単語、文字及び再び文に)現在のナビゲート可能な単位型を修正する。別の実施形態において、反時計回りの回転パターンを使用することにより減少インクリメントで現在のナビゲート可能な単位型を修正し、時計回りの回転パターンを使用することにより増加インクリメントで現在のナビゲート可能な単位型を修正する。
UI500V(図5V)は、指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ564を例示的なユーザインタフェース上に示す。ジェスチャ564は、最初の接触564−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の下端に向けて移動する(564−2)。
UI500W(図5W)は、テキストカーソル532がジェスチャ564に応答して1文字前方、すなわちテキスト列「client」の先頭から名前「li」の先頭に移動したことを示す。この移動は、ユーザジェスチャ544(図5K)に応答してテキストカーソル532が1文字だけ(すなわち、ユーザ名テキスト入力要素530内の第1のテキスト列534の前の位置から列「client」の「c」の直後の位置に)進んだUI500Lに示された動作とは異なる。動作における差は、現在のナビゲート可能な単位型を文字から単語に変更するナビゲーション設定ジェスチャ(回転子ジェスチャ562)によるものである。
UI500X(図5X)において、回転子ジェスチャ566は、接触感知表面上で回転するかあるいはツイストする(566−3及び566−4)第1の指接触566−1及び第2の指接触566−2を含み、これはつまみ又は回転子を回すことを模している。回転子ジェスチャ566は、UI500Uにおける回転子ジェスチャ562の反時計回りの方向とはほぼ逆の時計回りの方向である。
UI500Xでは可視ではないが、電子デバイスは、回転子ジェスチャ566を検出することに応答して現在のナビゲート可能な単位型を単語から文字に変更する。ナビゲート可能な単位型に関するアクセシビリティ情報は、回転子ジェスチャ566を検出することに応答して更に発せられる。この場合、アクセシビリティ情報は、現在のナビゲート可能な単位型がこの時点で「文字」に設定されることをユーザに示す(例えば、出力が発話され、「文字」又は「文字によるナビゲート」と発話する)。
UI500Y(図5Y)は、指スワイプジェスチャ又は指フリックジェスチャ等のユーザジェスチャ568を例示的なユーザインタフェース上に示す。ジェスチャ568は、最初の接触568−1をタッチスクリーン112上に有し、この接触はタッチスクリーン112の下端に向けて移動する(568−2)。
UI500Z(図5Z)は、テキストカーソル532がジェスチャ568に応答して単語「li」の「l」と「i」との間の位置に1文字前方に移動したことを示す。この移動は、ユーザジェスチャ564(図5V)に応答してテキストカーソル532が1単語進んだUI500Wに示された動作とは異なる。動作における差は、現在のナビゲート可能な単位型を単語から文字に変更するナビゲーション設定ジェスチャ(回転子ジェスチャ566)によるものである。
UI500AA(図5AA)は、回転子ジェスチャを使用するための別の例示的な実施形態を示す。上述したように、アクセシビリティユーザインタフェースコンテキストにおける回転子ジェスチャは、オプション制御の値を変更し、且つテキスト及びウェブページに対するナビゲーションオプション(例えば、表2)を設定するために使用されてもよい。UI500AAにおいて、言語選択ユーザインタフェース要素570が選択されており(不図示)、それに応答して言語セレクタユーザインタフェース要素572が表示される。エレメント572は、English572−1、Espanol572−2、Francais572−3及びItaliano572−4等の複数の言語オプションを含む。アクセシビリティカーソル502は、言語オプションEnglish572−1にある。
回転子ジェスチャ574は、接触感知表面上で中心点を中心に回転する(574−3及び574−4)第1の指接触574−1及び第2の指接触574−2を含み、つまみ又は回転子を回すことを模している。
UI500AAでは可視ではないが、電子デバイスは、回転子ジェスチャ574を検出することに応答して言語セレクタユーザインタフェース要素572上の言語オプションを変更する。現在選択されている言語の種類に関するアクセシビリティ情報は、回転子ジェスチャ574を検出することに応答して更に発せられる。この場合、アクセシビリティ情報は、現在の言語設定をユーザに示す(例えば、出力が発話され、「English」又は「Espanol」又は「Francais」と発話する)。
UI500BB(図5BB)において、言語セレクタユーザインタフェース要素572上の言語オプションFrancais572−3は、1つ以上の回転子ジェスチャ574の結果として選択された。アクセシビリティカーソル502はまた、言語オプションFrancais572−3に配置される。
UI500CC(図5CC)は、言語セレクタユーザインタフェース要素572上のフランス語オプションFrancais572−3が選択されたため、ウェブページ上に表示される言語が英語からフランス語に変化したことを反映する。
UI500DD(図5DD)は、いくつかの実施形態(例えば、表1)についてアクセシビリティユーザインタフェースにおいて使用された選択技術を示す。アクセシビリティカーソル502は、言語選択ユーザインタフェース要素570上にある(この場合、言語はフランス語である)。従って、UI500EE(図5EE)に示されるように、接触感知表面上の場所に依存しない1本指のダブルタップジェスチャ576は、言語セレクタユーザインタフェース要素572を起動する。
いくつかの実施形態において、アクセシビリティユーザインタフェースにおいて使用される別の選択技術は、ユーザが起動したいユーザインタフェース要素にアクセシビリティカーソル502が位置付けられる場合に物理ボタン(例えば、ホームボタン204)を押下することを含む。例えば、これらの実施形態において、UI500EE(図5EE)に示されるように、アクセシビリティカーソル502が言語選択ユーザインタフェース要素570にある場合にホームボタン204を起動することにより、言語セレクタユーザインタフェース要素572を起動する。
複数の指のスプリットジェスチャ
UI500FF及びUI500GG(図5FF及び図5GG)は、いくつかの実施形態において、アクセシビリティユーザインタフェースがインタフェースに提示されたユーザインタフェース要素間をナビゲートし且つそれを起動するために片手又は両手の2本指を使用することを容易にする。UI500FFにおいて、ユーザ選択ジェスチャ578は、テキスティングアプリケーションアイコン141における第1の接触点578−1から開始する。それに応答して、アクセシビリティカーソル502は、テキスティングアプリケーションアイコン141に位置付けられ、発音されるテキスト「テキスティング」又は「テキスティングアプリケーション」、あるいは「タップしてテキスティングを選択する」等のテキスティングアプリケーションアイコン141に関するアクセシビリティ情報を発する。ユーザ選択ジェスチャ578が接触感知表面にわたり移動し始める(578−2)ため、現在のフォーカスは他のユーザインタフェース要素に移動する。UI500FFの例において、ユーザ選択ジェスチャ578が株アプリケーションアイコン149−2の上を移動する578−2ため、ユーザ選択ジェスチャ578がその上を移動する時に現在のフォーカスが株アプリケーションアイコン149−2にあるものとして識別され、株アプリケーションアイコン149−2に関するアクセシビリティ情報が発せられる。
UI500GGは、ユーザ選択ジェスチャの接触点が辞書アプリケーションアイコン149−5に移動した(578−3)ことを示す。それに応答して、現在のフォーカス及びアクセシビリティカーソル502は、辞書アプリケーションアイコン149−5に位置付けられ、発音されるテキスト「辞書」又は「辞書アプリケーション」、あるいは「タップして辞書を選択する」等の辞書アプリケーションアイコン149−5に関するアクセシビリティ情報を発する。この時点で、第1の指の接触点578−3が依然として辞書アプリケーションアイコン149−5に対応する場所にある間に接触感知表面上の第2の指によるタップ578−4に応答して、辞書アプリケーションが起動する。
アクセシビリティインタフェースにおける複数の指のスプリットジェスチャは、更に効果的であり、電話番号入力キーパッドを含むキーボード又はキーパッドから迅速にキーを介してナビゲートし且つ選択すること、ウェブページ上のユーザインタフェース要素又はアプリケーションソフトウェアプログラムを見つけ且つ起動すること、並びにメディアにおいてタイムスタンプの場所を見つけることによりオーディオファイル/ビデオファイルをスクラブし、且つその後タップして制御を起動すること等の他の多くの状況に適用可能である。スプリットタッピングにより、同一のキーの反復起動が更に容易になる。例えば、単語を削除するために、ユーザは、1本指で削除キーを見つけ、次に別の指で接触感知表面を繰り返しタップし、削除ボタンを繰り返し起動し且つ複数のアルファベットを迅速に削除してもよい。
ズームモード
低視力、無矯正近視又は老眼のユーザ、あるいは拡大されるディスプレイを見る他の理由のあるユーザは、ズームモードを使用するだろう。ズームアクセシビリティモードは、ユーザがあらゆるアプリケーション又はユーザインタフェースの画面全体を拡大できるようにし、ユーザがディスプレイ上にあるものを見るのを支援する。いくつかの実施形態において、アクセシビリティユーザインタフェースジェスチャが重複するため、ズームモードはナレーションモードと同時に使用されない。あるいは、ナレーションモード及びズームモードのうちのいくつか又は全てを同時に使用できるように、種々のジェスチャの集合は双方のアクセシビリティモードで使用されてもよい。
UI500HH(図5HH)及び表3において、ズームモードについての例示的なジェスチャを説明する。
表3のアクセシビリティジェスチャは例示的なものにすぎない。いくつかの実施形態において、互いに反対のジェスチャへの応答(例えば、上方向ジェスチャに対する対応する下方向ジェスチャ)は、表3に示されたものとは逆であってもよい。いくつかの実施形態において、反対のジェスチャへの応答は、設定又はオプションメニュー等を介してユーザが設定できる。
表3に列挙されたジェスチャ及び対応するユーザインタフェース動作について、UI500II(図5II)は、ユーザインタフェース要素が拡大されるようにユーザインタフェース上でズームインするために接触感知表面上の場所に依存しない3本指のダブルタップジェスチャ580(すなわち、個々の接触580−1、580−2及び580−3は3本指のダブルタップを表す)を使用することを示す。
UI500JJ(図5JJ)は、3本指のダブルタップジェスチャ580に応答して、アプリケーションアイコンの株149−2、音声メモ142、アラーム149−4及び辞書149−5がより大きく、且つユーザインタフェースの他の部分がこの時点でユーザインタフェースの表示された部分内にないように、アクセシビリティユーザインタフェースがユーザインタフェースを拡大していることを示す。
UI500JJは、ユーザインタフェースのコンテンツをパン(すなわち、移動)する接触感知表面上の3本指の移動ジェスチャ582が表示したことを更に示す。特に3本指の移動ジェスチャ582は、接触の第1の始点、第2の始点及び第3の始点(それぞれ、582−1、582−2及び582−3)を含み、それらに後続して3つの接触点(それぞれ、582−4、582−5及び582−6)が接触感知表面上を移動する。尚、この例において、3つの接触点は、接触感知表面の下部に向けて下方向に進行した。
UI500KK(図5KK)は、3本指の移動ジェスチャ582に応答して、ユーザインタフェースアプリケーションアイコンの株149−2、音声メモ142、アラーム149−4及び辞書149−5を表示するのではなく、この時点でユーザインタフェースアプリケーションアイコンの写真144及びカメラ143がディスプレイの上部分で可視であり、且つディスプレイの上部分にあった株149−2及び音声メモ142がディスプレイの下部分にあるように、アクセシビリティユーザインタフェースはパンしている。
UI500KKは、ユーザインタフェースを更に拡大するために3本指のズームジェスチャ584を使用することを更に示す。ここで、ジェスチャ584は、接触の3つの始点584−1、584−2及び584−3を含む接触感知表面上の3本指のダブルタップを含む。第2のタップは、接触感知表面と接触したまま所望のズームレベルに到達するまで接触感知表面の上部に向けて移動する(584−4、584−5及び584−6)。
UI500LL(図5LL)は、3本指のズームジェスチャ584の後、ユーザインタフェースアプリケーションアイコンの音声メモ142が更に拡大され、この時点でディスプレイの殆どを占有することを示す。
UI500LLは、ユーザインタフェースを動き回る3本指のパニングジェスチャ586を使用することを更に示す。特に3本指のパニングジェスチャ586は、接触の第1の始点、第2の始点及び第3の始点(それぞれ、586−1、586−2及び586−3)を含み、それらに後続して3つの接触点(それぞれ、586−4、586−5及び586−6)が接触感知表面上を移動する。デバイスは、ジェスチャ586の移動に従って表示されたユーザインタフェースを移動させる。尚、この例における移動は主として一方向(すなわち、垂直方向)であるが、一般にパニングジェスチャ移動が接触感知表面上で完全に垂直又は完全に水平ではないため、一般に3本指のパニングジェスチャは、結果としてインタフェース内を2次元でスクロールする。いくつかの実施形態において、3本指のパニングジェスチャの引き上げを検出することに応答して、デバイスは、3本指のパニングジェスチャの引き上げにおける指の速度又はそれに近い時の指の速度に従って、表示されたユーザインタフェースを減速しながらパンし続ける。
UI500MM(図5MM)は、3本指のパニングジェスチャ586(図5LL)に応答して、辞書アプリケーションアイコン149−5がこの時点でディスプレイの殆どを占有することを示す。
UI500MMは、ユーザインタフェースを縮小するために3本指のズームアウトジェスチャ588を使用することを更に示す。ジェスチャ588は、接触の3つの始点588−1、588−2及び588−3を含む接触感知表面上の3本指のダブルタップを含む。第2のタップは、接触感知表面と接触したまま所望のズームレベルに到達するまで接触感知表面の下部に向けて移動する(588−4、588−5及び588−6)。
UI500NN(図5NN)は、ズームモードを使用する前とユーザインタフェース表示が同一の拡大/ズーム状態であるように、この例において3本指のズームアウトジェスチャ588により選択された拡大レベルが、ディスプレイを1.0xの拡大率に戻すことを示す。
いくつかの実施形態において、3本指のパニングジェスチャ(例えば、図5lの586)を認識した後、3本指のうちの最大2本の指を接触感知表面から離した時に円滑なパニングを可能にする免除技術(forgiveness technique)が使用される。免除技術は、パニングジェスチャ中に任意の所定の指との接触を失い及び取り戻す機能を含み、一方で3本指のうちの1本が短い事前定義された時間内に接触感知表面との接触を取り戻す限り依然として円滑なパニングが提供される。本質的に、ユーザが3本指でパニングジェスチャを開始する限り、ユーザは、たった1本指でパンすることができ、且つパンを指示するために使用されている指を変更できる。ユーザが単一の組合せイベントにおいて3つの指の全てを同時に接触感知表面と接触させることにより3本指のジェスチャを実行することはめったにないため、この技術は有益である。同様に、ユーザは、全ての3本指を同時に接触感知表面から離すことはめったにない。従って、これらの技術は、3本指のパニングジェスチャが発生していることを判定し、ユーザが依然として3本指のパニングジェスチャを実行しているがユーザが3本指の全てを接触感知表面と接触したままにしていない場合であってもしとやかに扱う。
いくつかの実施形態において、ディスプレイ及び接触感知表面を備えた電子デバイスは、接触感知表面上の指タッチイベントを格納して3本指のジェスチャが発生する時を検出するプログラム命令を実行する。検出される3本指のジェスチャの接触点が3より少ない場合、発生したタッチイベントは何でも受信された順序で処理される。接触感知表面上の接触の少なくとも3つの同時始点を検出することに応答して、デバイスは、ディスプレイ上に接触の3つの始点のうちの1つを第1の主接触となるように割り当てる。次にデバイスは、第1の主接触が接触感知表面と接触したままであるかを判定し、第1の主接触の移動を検出する。第1の主接触の移動を検出することに応答して、デバイスは、第1の主接触の移動に従ってディスプレイ上で複数のユーザインタフェース要素をパンする。その後デバイスは、第1の主接触が接触感知表面との接触を断つことを検出するとき、接触感知表面上の少なくとも3つの接触点から選択された第2の主接触を割り当てる。ここで第2の主接触は、接触感知表面と依然としてアクティブに接触している(すなわち、第2の主接触は、今一度接触感知表面とアクティブに接触している)。また、円滑なパニングを容易にするために、デバイスは、第1の主接触と第2の主接触との間のオフセットを算出する。その時、デバイスは、第2の主接触の移動を検出すると、第2の主接触の移動を検出することに応答して、第2の主接触の移動及びオフセットに従ってディスプレイ上の複数のユーザインタフェース要素をパンする。
古い主接触が断たれる場合に主接触を再割り当てし、古い主接触と再割り当てされた主接触との間のオフセットを算出し、且つ新しい再割り当てされた主接触の移動及び算出されたオフセットに従ってディスプレイ上でユーザインタフェースを移動するシーケンスは、(1)常に少なくとも1本の指が接触感知表面と接触しているか、又は(2)接触感知表面上の少なくとも1つの接触の再建と3つの接触点のうちの最後の接触点が接触感知表面から除去された時との間が事前定義された遅延以下であるかのいずれかである限り、ユーザがパニングし続けるのを選択する回数だけ繰り返される。事前定義された遅延は、いくつかの実施形態において1秒未満であってもよい。すなわち、事前定義された遅延は、別の実施形態において、0〜0.35秒又は0.01秒〜0.55秒であってもよい。
3本指の接触を説明したが、この技術が少なくとも2本の指を使用するあらゆる指パニングジェスチャ又は指ドラッギングジェスチャにも容易に適用可能であることは、当業者には明らかとなるだろう。また、古い主接触から新しい主接触への変化は、元の指接触から選択されたものだけではないあらゆる指接触を含んでもよい。
いくつかの実施形態において、アクセシビリティユーザインタフェースは、複数の指のジェスチャに応答してタッチスクリーンディスプレイの縁又は隅の点を含むディスプレイ上のあらゆる点の周囲を拡大する機能を提供する。
UI500OO〜UI500PP(図5OO〜図5PP)は、タッチスクリーン112上の種々の場所において3本指の接触591−1a、591−1b及び591−1cを含む複数の指のジェスチャ591を示す。従って、同時に複数の指のジェスチャ591に対するバウンディングボックス(境界を付ける囲み)592が判定される。
アクセシビリティユーザインタフェースは、バウンディングボックス内の点593の周囲のユーザインタフェースのコンテンツ(例えば、グラフィックス)をタッチスクリーン112上で第1の倍率より大きい第2の倍率に拡大する。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置(例えば、重心)にある。例えば、バウンディングボックス592−1がタッチスクリーン112の中心にあるかあるいは中心に近接するため、点593−1aはバウンディングボックスの中心にある。
UI500OOにおいて他の例示的なバウンディングボックスに示されるように、複数の指のジェスチャをタッチスクリーン112上の異なる場所に配置することは、対応する場所のバウンディングボックス592を判定ことにつながり、バウンディングボックス内の各々の対応する点593は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されている距離が増加するにつれて増加する量だけ、バウンディングボックスのデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。例えば、バウンディングボックス592−2がタッチスクリーン112の右端により近接するため、点593−1bはバウンディングボックスの右端により近接する。同様に、バウンディングボックス592−4がタッチスクリーン112の下端により近接するため、点593−1dはバウンディングボックスの下端により近接する。
バウンディングボックス592−3及び592−5が、それぞれ、タッチスクリーン112の右端及び下端に配置されるため、点593−1c及び593−1eは、それぞれ、バウンディングボックス592−3の右端及びバウンディングボックス592−5の下端に変位される。
従って、いくつかの実施形態において、アクセシビリティユーザインタフェースは、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位される距離に比例する量だけこのバウンディングボックス内の点をそのバウンディングボックスのそれぞれの縁に向けて変位できる。更にアクセシビリティユーザインタフェースは、このバウンディングボックス内の点をたった1つの軸ではなく2方向の軸へと変位できる。
UI500PPは、このバウンディングボックス内の点を2方向の軸に変位する例示的なバウンディングボックスを示す。例示的なバウンディングボックス592−6は、バウンディングボックスをタッチスクリーン112の中心に配置するためにバウンディングボックスの中心から変位されない点593−1fを有する。しかし、バウンディングボックス592−7は、バウンディングボックス592−7のデフォルト位置(例えば、重心)から変位される点593−1gを有する。バウンディングボックス592−7は、タッチスクリーン112の右上の隅に近接して配置される。従って、バウンディングボックス592−7内の点593−1gは、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーン112の右端及び上端に向けて変位される距離に比例した量だけバウンディングボックス592−7のデフォルト位置からバウンディングボックス592−7bの右隅及び上端に向けて変位されてもよい。
バウンディングボックス592−8は、バウンディングボックス592−8の重心から変位される点593−1hを有する。バウンディングボックス592−8は、タッチスクリーン112の右上の隅に配置される。従って、バウンディングボックス592−8内の点593−1hは、バウンディングボックス592−8のデフォルト位置からバウンディングボックス592−8の右端及び上端に変位される。従って、アクセシビリティユーザインタフェースは、複数の指のジェスチャに応答してタッチスクリーンディスプレイの縁又は隅を含むディスプレイ上のあらゆる点の周囲を拡大する機能を提供する。
いくつかの実施形態において、アクセシビリティユーザインタフェースは、複数の指のジェスチャ及び1本指のジェスチャの双方を使用してスクロールする機能を提供する。UI500KK(図5KK)を参照すると、図5KKは、3本指の移動ジェスチャ582(図5JJ)に応答して、ユーザインタフェースアプリケーションアイコンの株149−2、音声メモ142、アラーム149−4及び辞書149−5を表示するのではなく、この時点でユーザインタフェースアプリケーションアイコンの写真144及びカメラ143がディスプレイの上部分で可視であり、且つ株149−2及び音声メモ142(ディスプレイの上部分にあった)がディスプレイの下部分にあるように、アクセシビリティユーザインタフェースがスクロールすることを示す。
UI500QQ(図5QQ)は、いくつかの実施形態において、デバイスが複数の同時指接触のうちの1つ以外の引き上げを検出した後、唯一の残る指接触597がタッチスクリーン112の事前定義された中心部分598に配置される場合(例えば、図5QQの接触597−1)に、ユーザインタフェースがユーザインタフェースのコンテンツのスクローリングを中止することを示す。事前定義された境界部分599は、事前定義された中心部分598の外側のタッチスクリーン112のエリアである。説明の目的のために、事前定義された境界部分599はハッシュマークで示される。
UI500QQは、例示的な唯一の残る指接触597を、他の2つの場所に更に示す。唯一の残る指接触597−2は、事前定義された境界部分599の内側の縁599−1に近接して配置される。その結果、唯一の残る指接触597−2に最近接するタッチスクリーンの縁から離れてユーザインタフェースのコンテンツをスクロールすることになる(図示されないスクローリング)。すなわち、唯一の残る指接触が画面の左端に最近接する場合、ユーザインタフェースのコンテンツが画面の右端に向けてスクロールすることにより、タッチスクリーンディスプレイの縁の左端を越えていたユーザインタフェースコンテンツが現れる。
唯一の残る指接触597−3は、事前定義された境界部分599の外側の縁599−2に近接して配置される。その結果、唯一の残る指接触597−3に最近接するタッチスクリーンの縁から離れたユーザインタフェースのコンテンツを更にスクロールすることになる(図示されないスクローリング)。
いくつかの実施形態において、事前定義された境界部分599内で597−2又は597−3等の唯一の残る指接触を検出した際に使用されるスクローリング速度は、唯一の残る指接触に最近接するタッチスクリーン112の縁と唯一の残る指接触との間の距離に反比例する。従って、唯一の残る指接触597−2は、唯一の残る指接触597−3がユーザインタフェースのコンテンツをスクロールするよりゆっくりとユーザインタフェースのコンテンツをスクロールする。
従って、デバイスは、ズームに関連した動作を開始するために同一の数の同時指(例えば、表3の3本指)による複数の指のジェスチャを使用してもよいが、更に1本指のジェスチャ(ディスプレイをあまり隠蔽しない)をズームモードで複数の指のジェスチャと共にシームレスに使用できるようにする、
ユーザインタフェースコンテナの接触感知表面へのマッピング
図6A〜図6Tは、いくつかの実施形態に従うそれぞれのユーザインタフェースコンテナを接触感知表面にマッピングするアクセシビリティユーザインタフェースを示す。コンテナマッピングは、視覚的に複雑なディスプレイ(例えば、マルチウィンドウディスプレイ)を介したナビゲーションの効率的なアクセシビリティ方法の一部である。マッピングされた接触感知表面がディスプレイ全体ではなく現在選択されているコンテナのみを示すため、ユーザは偶然にディスプレイの他のエリアに迷い込むことはない。
以下に説明するように、ユーザインタフェースコンテナは、ディスプレイ上のユーザインタフェースの個別の事前定義された領域である。ユーザインタフェースコンテナはユーザインタフェース要素を含む。一般にコンテナは、アプリケーションが設計される時にアプリケーション開発者により規定される。アクセシビリティユーザインタフェースにおいてコンテナを使用するために、開発者は、全体図と共にある特定のグラフィカル図を編成することによりユーザインタフェースコンテナのグループを作成する。アプリケーション及びアクセシビリティユーザインタフェースは、ユーザがコンテナの配置を視覚的に見られない場合でも論理的に理解可能な方法でユーザインタフェースコンテナのグループ内でナビゲートできるようにするために共に使用される。以下に更に詳細に説明するように、ユーザインタフェースコンテナは、事前定義された階層的な方法で編成されてもよい。
いくつかの実施形態において、コンテナを含むアクセシビリティユーザインタフェースは、デスクトップコンピュータ又はラップトップコンピュータ等のディスプレイ及び接触感知表面(例えば、トラックパッド)を備えた電子デバイス上で動作する。いくつかの実施形態において、コンテナを含むアクセシビリティユーザインタフェースは、タッチスクリーンディスプレイを備えた電子デバイス上で動作する。いくつかの実施形態において、タッチスクリーンディスプレイは、1つ以上の更なる接触感知表面又は1つ以上の更なるディスプレイと共に使用されてもよい。いくつかの実施形態において、コンテナを含むアクセシビリティユーザインタフェースは、ポータブル多機能デバイス(例えば、図1Aの100)又は他の電子デバイス(例えば、図3の300)上で使用される。
図6A〜図6Tにおいて、ジェスチャは、ディスプレイとは別個の接触感知表面603(例えば、トラックパッド)上に示される。例示的なジェスチャを別個の接触感知表面603に関するこれらの図に示すことは、本明細書で開示する方法を実行するようにトラックパッド(又は他の別個の接触感知表面)上でジェスチャを実行することを必要としない。例えば、いくつかの実施形態において、ジェスチャは代わりにタッチスクリーン上で実行されてもよい。これらの実施形態において、選択されたコンテナはタッチスクリーン表面全体に触感的にマッピングされてもよく、タッチスクリーンは選択されたコンテナを含む複数のコンテナを表示し続ける。図6A〜図6Tのアクセシビリティユーザインタフェースは、図10A〜図10Cに関連して以下に説明する処理を示すために使用される。
表4において、コンテナナビゲーション及び起動に対する例示的なアクセシビリティジェスチャを説明する。一般にこれらのジェスチャは指ジェスチャである。いくつかの実施形態において、コンテナに対するアクセシビリティジェスチャは、指ジェスチャと組み合わせて又はその代わりに他の入力(例えば、修飾キーを押下し続ける等のキーボード入力又はマウス入力)を更に含んでもよい。
また、表1及び表2に関連して上述したナビゲーションジェスチャ(例えば、設定のためのフリックナビゲーション、回転子制御等)は、コンテナナビゲーション及び起動にも適用可能である。
表4のアクセシビリティジェスチャは例示的なものにすぎない。いくつかの実施形態において、2本指の非ピンチジェスチャ(2本指の右スワイプジェスチャではなく)は、現在のフォーカスが設定される場所の下の次の下位レベルコンテナを選択するために使用される。いくつかの実施形態において、2本指のピンチジェスチャ(2本指の左スワイプジェスチャではなく)は、現在のフォーカスが設定される場所の上の次の上位レベルコンテナを選択するために使用される。いくつかの実施形態において、互いに反対のジェスチャ(例えば、右方向ジェスチャに対する対応する左方向ジェスチャ、又は上方向ジェスチャに対する対応する下方向ジェスチャ)は、表4に示されたものとは逆であってもよい。例えば、2本指の右スワイプジェスチャは次の上位レベルコンテナを選択するために使用されてもよく、2本指の左スワイプジェスチャは次の下位レベルコンテナを選択するために使用されてもよい。いくつかの実施形態において、互いに反対のジェスチャへの応答は、設定又はオプションメニュー等を介してユーザが設定できる。
図6Aは、ユーザインタフェースコンテナの接触感知表面603への3つの例示的なマッピングを示す。いくつかの実施形態において、接触感知表面603は、デバイス300上のタッチパッド355である(図3)。
第1の例(図6A−1)において、ユーザインタフェースコンテナ604は、接触感知表面603に比例してマッピングされる。ユーザインタフェースコンテナ604は、複数のユーザインタフェース要素、例えば604−1、604−2等を含む。ユーザインタフェースコンテナ604内の例示的なユーザインタフェース要素は、アプリケーションアイコン、ウェブリンク、ファイル名、ファイル一覧、ファイルアイコン、グラフィカルユーザインタフェースコントロール、メニューバー、スプレッドシート、プレゼンテーションファイル又はプレゼンテーションスライド、リスト、見出し、テキストフィールド、テキスト領域、パスワードフィールド、スライダ、スプリッタ、開示三角形及び/あるいは表を含んでもよいが、それらに限定されない。
第2の例(図6A−2)において、非常により短いがより幅広のメニューバー用のユーザインタフェースコンテナ608は、接触感知表面603に比例してマッピングされる。コンテナ608は、ドロップダウンメニューバー、すなわち「ファイル」、「編集」等に対するユーザインタフェース要素を含む。図6A−2の比例マッピングは、接触感知表面603上でこれらのユーザインタフェース要素を垂直に伸張する。このように垂直に伸張することにより、視覚に障害のあるユーザが所定のユーザインタフェース要素に対応する接触感知表面603上の場所をタッチするのがより簡単になる。
第3の例(図6A−3)において、アプリケーションアイコンインタフェースコンテナ610は、接触感知表面603に比例してマッピングされる。アプリケーションアイコンインタフェースコンテナ610は、アプリケーションアイコンユーザインタフェース要素の電話138、メール140、ブラウザ147及び音楽146を含む。図6A−2と同様に、図6A−3の比例マッピングは、接触感知表面603上でこれらのユーザインタフェース要素を垂直に伸張する。このように垂直に伸張することにより、視覚に障害のあるユーザが所定のユーザインタフェース要素に対応する接触感知表面603上の場所をタッチするのがより簡単になる。
UI600B〜UI600G(図6B〜図6G)は、ユーザインタフェースコンテナの階層(入れ子にされた)構成をナビゲートする例示的なアクセシビリティユーザインタフェースを示す。
UI600B(図6B)を参照すると、ウィンドウ612は、ここでは「ウィンドウ」と称されたウィンドウである全体的なユーザインタフェース要素である。現在のコンテナ標識614−1(例えば、太字又は視覚的に強調表示された境界)は、全体的なユーザインタフェース要素ウィンドウ612が現時点で選択されていることを識別するために使用される。いくつかの実施形態において、ここで示すように、現在のコンテナ標識614は、ウィンドウ等のユーザインタフェース要素のタイトルに接してもよい。いくつかの実施形態において、現在のコンテナ標識は、現在のコンテナであるユーザインタフェース要素全体に接する。現在のコンテナがウィンドウである場合、現在のコンテナ標識はウィンドウ全体に接してもよい。
この例において、現在のコンテナがユーザインタフェース要素ウィンドウ612全体であるため、ウィンドウ612は、接触感知表面603に比例してマッピングされる615。
この例において2本指のスワイプジェスチャであるユーザインタフェースコンテナ選択イベント616は、接触の始点616−1及び616−2を有し、それらに後続して接触のこれらの始点が移動する(616−3及び616−4)。尚、ユーザインタフェース選択イベント616は場所に依存しない。イベント616は、接触感知表面603上の任意の角度及び場所で発生する。これに対して、所定のコンテナ内でナビゲートし且つ起動するジェスチャ(例えば、表4の1本指の移動/ドラッギングジェスチャ)は、マッピングされた接触感知表面上の場所に依存するジェスチャである。
UI600C(図6C)は、ユーザインタフェースコンテナ選択イベント616を検出することに応答して、現在のコンテナ標識614−2がウィンドウ612の内側部分に位置を変更し、現在のコンテナ標識614−2により現時点で輪郭を示されているウィンドウ612の部分が現在選択されているコンテナであることを反映していることを示す。ユーザインタフェースコンテナ選択イベント616に応答して、現在のコンテナ標識614−2により輪郭を示されたウィンドウ612の内側部分は、接触感知表面603に比例してマッピングされる(620)。デバイスは、ユーザインタフェースコンテナ選択イベント616を検出することに応答して、例えば「コンテナとのインタラクション、3つの項目」を発音するように、現在選択されているコンテナと関連付けられたアクセシビリティ情報を更に出力してもよい。
この例において、現在のコンテナ(現在のコンテナ標識614−2内のウィンドウ612のエリア)は、前のコンテナ(ウィンドウ612)内に入れ子にされる。2つのコンテナは、ここで示された最も外側のレベルのウィンドウ612及び階層において次の下位レベルの現在のコンテナ標識614−2内のウィンドウ612のエリアと共に階層を形成する。
UI600Cは、この例においては接触の始点618−1及び618−2を有し、それらに後続して接触のこれらの始点が移動する(618−3及び616−4)接触感知表面603上の別の2本指のスワイプジェスチャである例示的なユーザインタフェースコンテナ選択イベント618を更に示す。尚、ユーザインタフェースコンテナ選択イベント618の方位は、ユーザインタフェースコンテナ選択イベント616とは別の角度である。インタフェースコンテナ選択イベント618も場所に依存しない。
UI600D(図6D)は、ユーザインタフェースコンテナ選択イベント618を検出することに応答して、現在のコンテナ標識614−3がウィンドウ612の新たな内側部分に位置を変更し、現在のコンテナ標識614−3により輪郭を示されたウィンドウ612の部分が現在選択されているコンテナであることを反映していることを示す。従って、いくつかの実施形態において、ユーザインタフェースコンテナ選択イベント616とは異なる角度であるユーザインタフェースコンテナ選択イベント618の向きを介して説明されたように、ユーザインタフェースコンテナ選択イベントの向きもまた無関係である。
ユーザインタフェースコンテナ選択イベント618に応答して、現在のコンテナ標識614−3により輪郭を示されたウィンドウ612の内側部分は、接触感知表面603に比例してマッピングされる。デバイスは、ユーザインタフェースコンテナ選択イベント618を検出することに応答して、例えば「コンテナとのインタラクション、2つの項目」を発音するように、現在選択されているコンテナと関連付けられたアクセシビリティ情報を更に出力してもよい。
この例において、標識614−1、614−2及び614−3に対応するコンテナ(すなわち、ウィンドウ612、現在のコンテナ標識614−2内のウィンドウ612のエリア及び現在のコンテナ標識614−3内のウィンドウ612のエリア)は、入れ子にされたコンテナの階層を形成する。階層において、ウィンドウ612は第1のレベルであり、UI600Cで現在のコンテナ標識614−2と共に示されたウィンドウ612のエリアは第2の下位レベルであり、UI600Dの現在のコンテナ標識614−3内のウィンドウ612のエリアは第3の更なる下位レベルである。
UI600Dは、この例においては接触の始点622−1及び622−2を有し、それらに後続して接触のこれらの始点が移動する(622−3及び622−4)接触感知表面603上の別の2本指のスワイプジェスチャである例示的なユーザインタフェースコンテナ選択イベント622を更に示す。
UI600Eは、ウィンドウ612内のユーザインタフェースコンテナの階層における別のレベルを示す。ユーザインタフェースコンテナ選択イベント622に応答して、現在のコンテナ標識614−4がウィンドウ612の新たな内側部分に位置を再度変更し、現在のコンテナ標識614−4により輪郭を示されたウィンドウ612の部分が現在選択されているコンテナであることを反映している。ユーザインタフェースコンテナ選択イベント622に応答して、現在のコンテナ標識614−4により輪郭を示されたウィンドウ612の内側部分は、接触感知表面603に比例してマッピングされる(625)。デバイスは、ユーザインタフェースコンテナ選択イベント622を検出することに応答して、例えば「テキストエリアとのインタラクション」を発音するように、現在選択されているコンテナと関連付けられたアクセシビリティ情報を更に出力してもよい。
UI600Eは、この例においては接触の始点629−1を有し、それに後続して接触の始点が移動する629−1接触感知表面603上を移動する1本指である例示的なユーザインタフェースナビゲーションジェスチャ629を更に含む。
UI600F(図6F)は、ユーザインタフェースナビゲーションジェスチャ629に従う現在のコンテナ内の現在のフォーカス630の移動を示す。この場合、現在のコンテナは、テキストフィールドユーザインタフェース要素、すなわち「Apple leads the way...」で始まるテキストボックスである。テキストフィールド内のテキスト/単語がマッピングされた接触感知表面603上で指ジェスチャを使用してナビゲートされてもよい「子要素」として動作するため、テキストフィールドユーザインタフェース要素はコンテナとして動作する。テキストフィールドユーザインタフェース要素の場合、現在のフォーカス630は、テキストフィールド内の子要素(例えば、回転子の現在の設定に依存して、単語又は文字)に常駐してもよい。UI600Fにおいて、現在のフォーカス630の位置は、マッピングされた接触感知表面603上の移動する1本指の接触629−3の場所に対応する。デバイスは、ユーザインタフェースナビゲーションジェスチャ629を検出することに応答して、例えば現在のフォーカスにおける単語(すなわち、「leads」)を発音する/出力するように、現在のフォーカス630と関連付けられたアクセシビリティ情報を更に出力してもよい。
従って、アクセシビリティユーザインタフェースは、入れ子にされたコンテナ間をナビゲートする場所に依存しない指ジェスチャ(例えば、616、618、622及び628)、並びに接触感知表面にマッピングされる現在のコンテナ内をナビゲートする場所に依存する指ジェスチャ(例えば、629)の双方を含んでもよい。双方の種類のジェスチャは、一般に、可聴情報等のナビゲーションに関するアクセシビリティ情報を更に出力する。
UI600Fは、この例においては接触の始点628−1及び628−2を有し、それらに後続して接触のこれらの始点が接触感知表面の左に移動する(628−3及び628−4)2本指のスワイプジェスチャである例示的なユーザインタフェースコンテナ選択解除イベント628を更に含む。
UI600G(図6G)は、ユーザインタフェースコンテナ選択解除イベント628の後、現在のコンテナ標識614が入れ子にされたコンテナの階層を登って、現在のコンテナ標識614−3により規定された前のコンテナへと戻って移動したことを示す。
UI600H〜UI600J(図6H〜図6J)は、Apple社のiTunes(登録商標)アプリケーション等の音楽及びビデオプレーヤアプリケーションにおけるアクセシブルナビゲーション用のユーザインタフェースコンテナの階層を示す。
UI600H(図6H)において、主なアプリケーションウィンドウ634は、全体的なユーザインタフェース要素である。現在のコンテナ標識636−1は、全体的なユーザインタフェースウィンドウ634が現在選択されているコンテナであることを識別するために使用される。この例においては接触感知表面603上の2本指のスワイプジェスチャであるユーザインタフェースコンテナ選択イベント638は、接触の始点638−1及び638−2を有し、それらに後続して接触のこれらの始点が右に移動する(638−3及び638−4)。
UI600I(図6I)は、ユーザインタフェースコンテナ選択イベント638を検出することに応答して、現在のコンテナ標識636−2がアプリケーションウィンドウ634の新たな内側部分に位置を変更し、現在のコンテナ標識636−2により現時点で輪郭を示されているウィンドウ634の部分が現在選択されているコンテナであることを反映していることを示す。ユーザインタフェースコンテナ選択イベント638に応答して、現在のコンテナ標識636−2により輪郭を示されたウィンドウ634の内側部分は、接触感知表面603に比例してマッピングされる。デバイスは、ユーザインタフェースコンテナ選択イベント638を検出することに応答して、例えば「podcast、表」を発音するように、現在選択されているコンテナと関連付けられたアクセシビリティ情報を更に出力してもよい。
UI600Iは、この例において、接触の始点640−1を有しそれに後続して接触の始点が移動(640−2)する、接触感知表面603上を移動する1本指である例示的なユーザインタフェースナビゲーションジェスチャ640を更に含む。
UI600J(図6J)は、ユーザインタフェースナビゲーションジェスチャ640に従う現在のコンテナ内の現在のフォーカス641の移動を示す。UI600Jにおいて、現在のフォーカス641の位置は、マッピングされた接触感知表面603上の移動する1本指の接触640−3の場所に対応する。デバイスは、ユーザインタフェースナビゲーションジェスチャ640を検出することに応答して、例えば現在のフォーカスにおける単語(「temp puts...selected row」)を発音するように、現在のフォーカス641と関連付けられたアクセシビリティ情報を更に出力してもよい。
従って、音楽及びビデオプレーヤアプリケーション、並びに他の多くのソフトウェアアプリケーションは、一連のユーザインタフェースコンテナとしてナビゲートされてもよく、現在のコンテナは接触感知表面にマッピングされる。
UI600K〜UI600S(図6K〜図6S)は、ナビゲーション用の例示的なアクセシビリティユーザインタフェースを示す。
ユーザインタフェース644(UI600K)は、デスクトップ646、メニューバー650及びドック654を含む多くのユーザインタフェース要素を含む。アクセシビリティユーザインタフェースがアクティブである場合、現在のコンテナ標識648は、ユーザインタフェース要素のうちの少なくとも1つにおいて又はその周囲で可視である。UI600Kにおいて、現在のコンテナ標識648−1は、種々のドロップダウンメニュータイトル、すなわちファイル(File)650−1、編集(Edit)650−2、表示(View)650−3、移動(Go)650−4、ツール(Tools)650−5等を含むメニューバー650にある。メニューバー650は、接触感知表面603にマッピングされる(例えば、図6A−2に示されたメニューバーマッピングに類似する)。メニューバー項目のツール650−5は、現在のコンテナ(メニューバー650)内の現在のフォーカスであるために強調表示される。
UI600Kは、この例においては場所656−1(ツール650−5に対応する)及び656−2における2本指のスプリットタップであるユーザインタフェースコンテナ選択イベント656を更に示す。2本指の右/左スワイプジェスチャ又はピンチジェスチャ及び非ピンチジェスチャを含むがそれらに限定されないあらゆる適切なジェスチャは、コンテナ間をナビゲートするために使用されてもよい。コンテナ選択イベントは、場所に依存するジェスチャ(例えば、スプリットタップ)及び場所に依存しないジェスチャ(例えば、2本指のスワイプジェスチャ)を含んでもよい。
UI600L(図6L)は、ユーザインタフェースコンテナ選択イベント656に応答して、ツールメニューが現在のコンテナになるために現在のコンテナ標識648−2により強調表示されることを示す。ツールメニューのエリアは接触感知表面603(不図示)にマッピングされ、アクセシビリティ情報が発せられる(例えば、単語「toolsメニュー」を発音する)。アクセシビリティユーザインタフェースは、マッピングされた接触感知表面603上の指の現在の位置(不図示)に対応するコンテナにおける位置を示す現在のコンテナ内の指場所標識659を更に示してもよい。UI600Lにおいて指場所標識659は、現在のフォーカスを有しそれゆえ強調表示されている、Select Toolメニュー項目658上にある。現在のフォーカスがマッピングされた接触感知表面603上の指に従って移動する時、アクセシビリティ情報が発せられる(例えば、単語「tools、選択された」を発音する)。
UI600Lの例において、現在のコンテナがツールメニューに設定された後のある時間において、ユーザはアプリケーションを選択するアクセシビリティ機能を開始した。接触感知表面603のエリア688における2本指のダブルタップジェスチャ(図6T)、あるいはキーボード又は点字デバイス上のキー組合せ等のアプリケーション選択器(Application Chooser)を開始するあらゆる適切な方法が使用されてもよい。
この例において、アプリケーション選択器を開始する要求を検出することに応答して、アクセシビリティユーザインタフェースUI600Lは、アプリケーションのリスト(例えば、現在実行中のアプリケーション)を含むアプリケーション選択器ダイアログボックス660を表示する。いくつかの実施形態において、ダイアログボックスは、アプリケーション選択のために接触感知表面にマッピングされる。いくつかの実施形態において、ダイアログボックスは表示されない。その代わり、可能なアプリケーション選択肢が可聴に発せられる。UI600Lにおいて、アプリケーション選択肢は、プレビュー(Preview)660−1(現在(Current)のフォーカスを含むアプリケーション)、メール(Mail)660−2及びドック(Dock)660−3を含む。
この例において、ユーザは、アプリケーション選択器ダイアログボックスのオプション内をドック660−3へとナビゲートし、切り替え先としてそのアプリケーションを選択する(ナビゲーション及び選択は図6Lに示されない)。アプリケーション選択器ダイアログボックス660内のナビゲーションは、キー押下、指ジェスチャ、マウスカーソル移動等を含むがそれらに限定されないあらゆる適切な方法により達成されてもよい。
UI600M(図6M)は、ドック660−3を選択するユーザに応答して、現在のコンテナ標識648−3がユーザインタフェースの下部でドックエリア654を強調表示することを示す。ドック660−3を選択した後のある時間において、ユーザがアプリケーション選択器を再度開始することにより、アプリケーション選択器ダイアログボックス662が表示される。この場合、アプリケーション選択肢は、ドック(Dock)662−1(現在のフォーカスを含むアプリケーションであるために現在(Current)としてマーク付けされる)、メール(Mail)662−2及びFinder662−3を含む。
この例を続けると、ユーザは、アプリケーション選択器ダイアログボックスのオプション内をメール662−2へとナビゲートし、切り替え先としてそのアプリケーションを選択する(アプリケーション選択器ダイアログボックス内のナビゲーション及び選択は図6Mに示されない)。
UI600N(図6N)は、メール662−2アプリケーションを選択するユーザに応答して、アクセシビリティユーザインタフェースがメールアプリケーション664に切り替えることを示す。メールアプリケーション664は、電子メールリストエリア664−1(現在のコンテナ標識648−4により示されるように現在のコンテナである)及びプレビューエリア664−2を含む。いくつかの実施形態において、ここで示されるように、現在のコンテナではないエリアは薄暗く、すなわち淡色のオーバレイで表示され、現在のコンテナであるエリアは正常に表示される。
UI600O(図6O)は、ユーザがいくつかの実施形態において使用可能なウィンドウ選択器機能を開始した(例えば、図6Tの接触感知表面603のエリア684における2本指のダブルタップジェスチャに応答して)ことを示す。アプリケーション選択器と同様に、いくつかの実施形態において、ウィンドウ選択器オプションを含むダイアログボックスが表示される。いくつかの実施形態において、ダイアログボックスは、ウィンドウ選択のために接触感知表面にマッピングされる。この場合、ウィンドウ選択器ダイアログボックス666は、可能な選択である、現在666−1及び選択された項目666−2を示す。現在666−1は、現在のコンテナ、すなわちここでは電子メールリストエリア664−1であるアプリケーションのウィンドウ又は部分を示す。この例において選択された項目666−2は、電子メールリストエリア664−1で現在選択されている電子メール(例えば、「Absolutely Free Image Hosting」)に対するプレビューエリア664−2を含むウィンドウである。
この例において、ユーザは、ウィンドウ選択器ダイアログボックスのオプション内で選択された項目666−2にナビゲートし、切り替え先にそのウィンドウを選択した(ウィンドウ選択器ダイアログボックス666内のナビゲーション及び選択は図6Oには示されない)。ウィンドウ選択器ダイアログボックス666内のナビゲーションは、キー押下、指ジェスチャ、マウスカーソル移動等を含むがそれらに限定されないあらゆる適切な方法により達成されてもよい。
UI600P(図6P)は、ウィンドウ選択器ダイアログボックス666における選択された項目666−2をユーザが選択することに応答して、プレビューエリア664−2が現在のコンテナ標識648−5で強調表示され、それが現在のコンテナであることを示すことを示す。
プレビューエリア664−2は、行670−1〜670−7を有する電子メール670を表示する。プレビューエリア664−2内の現在のフォーカスは行670−3上にある。現在のフォーカスを有するために強調表示される指場所標識672−1(UI600Lの標識659に類似する)は、行670−3上にある。マッピングされた接触感知表面603上の指に従って現在のフォーカスが移動する時、アクセシビリティ情報が発せられる(例えば、単語「Simple, fast, absolutely free image hosting and sharing service for you」を発音する)。
コンテナ内の限られた軸に沿うナビゲーション
UI600P〜UI600S(図6P〜図6S)は、ナビゲーションが軸(例えば、コンテナ内の水平軸)に限られるユーザインタフェースコンテナ内のナビゲーションを示す。そのようなナビゲーションは、ユーザが、単語の複数の行を含むページ上の1つの行に沿って単語を選択し且つ聞くか、あるいはユーザインタフェース要素の2次元アレイにおいて行又は列(例えば、スプレッドシート又はアイコンのアレイ)を通るのを補助してもよい。マッピングされた接触感知表面上のユーザの指の移動が接触感知表面上の通常のナビゲーションほど厳密である必要はないため、限定された軸に沿うナビゲーションにより、ユーザがコンテナ内でナビゲートできる速度及び効率は上がる。
いくつかの実施形態において、指ナビゲーションジェスチャが読まれる行と厳密にそろっていない場合でも行全体が容易に読まれるように、ユーザが指ジェスチャに対して修飾入力を追加する(例えば、接触感知表面上で指ナビゲーションジェスチャを実行する際にキーボードキー(例えば、シフトキー)を押下し続ける)場合、コンテナ内の限定された軸に沿ったナビゲーションが発生する。
UI600P〜UI600Sにおいて、行670−1〜670−6の各々は軸671を有し、ユーザインタフェース要素、すなわち単語は軸671に沿って整列される。複数のユーザインタフェース要素のうちの1つの行に沿ってナビゲートするために、ユーザインタフェースナビゲーションジェスチャは、ジェスチャ移動に従ってナビゲーションジェスチャの現在のフォーカスを移動することを含んでもよく、現在のフォーカスに対する場所は、ナビゲートされている行の軸にほぼ限定される。
例えばUI600Qにおいて、指ナビゲーションジェスチャ674は、最初の接触674−1及び厳密に水平ではない移動674−2を有する。UI600R(図6R)において、移動674−2は全体として厳密に水平ではないが、現在のフォーカス672−2は移動674−2の水平成分に従って、行670−3と整列される軸671−3に沿って移動している。
しかし、指移動が軸からほぼ逸れる場合、現在のフォーカスはナビゲートされていた行の軸から離れたユーザインタフェース要素に変化する。例えばUI600Rにおいて、ユーザインタフェースジェスチャ676は、最初の接触676−1及び水平方向からほぼ逸れる方向の移動676−2を有する。従って、UI600S(図6S)において、現在のフォーカス672−3は、軸671−3に沿って水平に移動し続けるのではなく、行670−4に垂直に移動している。
特定のナビゲーションジェスチャに対する局所的なタッチ表面の割り当て
いくつかの実施形態において、特定の種類のジェスチャが検出される(例えば、2本指のダブルタップジェスチャ)場合、接触感知表面603の事前定義されたエリア(例えば、図6Tの例示的なエリア682、684、686及び688)は、特定のアクセシブル動作に対して指定されてもよい。エリア682は(例えば、2本指のダブルタップジェスチャがエリア682で検出される場合)現在のコンテナをメニューバーコンテナ650にするように指定される。エリア684は(例えば、2本指のダブルフィンガタップジェスチャがエリア684で検出される場合)ウィンドウ選択器666を起動するように指定される。エリア686は(例えば、2本指のダブルタップジェスチャがエリア686で検出される場合)現在のコンテナをドック654にするように指定される。エリア688は(例えば、2本指のダブルタップジェスチャがエリア688で検出される場合)アプリケーション選択器660を起動するように指定される。この種のジェスチャの場合、応答は接触感知表面上のジェスチャの場所に依存するが、接触感知表面への現在のコンテナのマッピングには依存しない。
図7A〜図7Cは、いくつかの実施形態に従うユーザインタフェース要素間のタッチベースのナビゲーションのアクセシビリティ方法を示すフローチャートである。方法700は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法700のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、接触感知表面はディスプレイとは別個である。いくつかの実施形態において、接触感知表面はタッチパッド(例えば、図3の355)である。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある(750)。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法700は、ユーザインタフェース要素を介してナビゲートし且つエレメントに関するアクセシビリティ情報を提供するために場所に依存しないジェスチャを使用する効率的な方法を提供する。方法により、ディスプレイ及び接触感知表面を備えた電子デバイスを使用する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲートできるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、ディスプレイ(例えば、図5AのUI500A及び図5Iのユーザインタフェース要素の第1の画面518)上に複数のユーザインタフェース要素を表示する(702)。現在のフォーカスは第1のユーザインタフェース要素上にある。上述したように、アクセシビリティ方法を実行する場合、現在のフォーカスは、ユーザインタフェースの所定のユーザインタフェース要素(例えば、図5Aのアクセシビリティカーソル502が表示されるテキスティングアイコン141)に設けられてもよい。従って、現在のフォーカスが所定のユーザインタフェース要素(例えば、ウィンドウ、メニュー項目、ダイアログボックス、ボタン、位置決め制御又は他のグラフィカルユーザインタフェース要素)上にある場合、現在選択されているユーザインタフェース要素は、適当なユーザ入力を検出すると起動又は停止する。例えば、図5Aを参照すると、テキスティングアイコン141が現在のフォーカスを有する場合、テキスティングモジュール141は、現在のフォーカスを含むユーザインタフェース要素を起動するためのユーザ入力(例えば、1本指のダブルタップジェスチャ)を検出することに応答して起動してもよい。
デバイスは、接触感知表面上の第1の指ジェスチャ(例えば、上述したようなスワイプジェスチャ504(図5A)又は表1の右フリック)を検出する(704)。第1の指ジェスチャは、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である。方法700において、第1の指ジェスチャに応答してナビゲートされているユーザインタフェース要素を含む複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に第1の指ジェスチャが接触するか否かは重要ではない。この状況において、接触感知表面上の第1の指ジェスチャの場所は方法に影響を及ぼさない。方法は、方法の教示から逸脱せずに、第1の指ジェスチャが検出されること及び第2のユーザインタフェース要素を含む複数のユーザインタフェース要素のうちの0個以上のユーザインタフェース要素に対応する接触感知表面上の場所にジェスチャが接触してもよいことのみを必要とする。従って、方法700において、複数のユーザインタフェース要素のうちの一方のユーザインタフェース要素からその複数のユーザインタフェース要素のうちの他方のユーザインタフェース要素へのジェスチャによるナビゲーションは、接触感知表面上の第1の指ジェスチャの接触点が複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所と接触するのを検出することを必要としない。また、いくつかの実施形態において、第1の指ジェスチャは移動する接触点を有してもよく、デバイスは、第1の指ジェスチャの移動する接触点があらゆるユーザインタフェース要素に対応する接触感知表面上の場所と交差するかあるいは接触するかを無視するように構成されてもよい。
従って、いくつかの実施形態において、第1の指ジェスチャは、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触しない(706)。あるいは、第1の指ジェスチャを検出することは、指ジェスチャにより第2のユーザインタフェース要素に対応する接触感知表面上の場所と接触するのを検出することとは無関係である。あるいは、第1の指ジェスチャは、第2のユーザインタフェース要素に対応する接触感知表面上の場所とは無関係のままである。あるいは、第1の指ジェスチャは、第2のユーザインタフェース要素に対応する接触感知表面上の場所に偶発的に接触してもよい。
第1の指ジェスチャを検出することに応答して、デバイスは、現在のフォーカスを複数のユーザインタフェース要素のうちの第1のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更し、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する(708)。
ユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力すること又は発することには、複数の情報種目を含むことができる。アクセシビリティ情報は、発音される単語又は文字、境界ヒット音等の可聴アクセシビリティ情報及びユーザインタフェース又はユーザインタフェースのアクセシビリティ面に関するあらゆる適切なコンテキスト可聴情報を含んでもよい。アクセシビリティ情報は、ユーザインタフェース又はユーザインタフェースのアクセシビリティ面に関する情報を運ぶコンテキスト指向の振動等の触感アクセシビリティ情報を含んでもよい。アクセシビリティ情報は、テキスト出力を点字ディスプレイ、大型印刷ディスプレイ等に送出することを含んでもよい。この種のアクセシビリティ情報のうちのいくつか又は全ては、同一のアクセシビリティユーザインタフェースにおいて使用されてもよい。
いくつかの実施形態において、発せられたアクセシビリティ情報は、第2のユーザインタフェース要素に対応する発音されるテキストとして出力される1つ以上の単語(例えば、第1の指ジェスチャに応答して現在のフォーカス及びアクセシビリティカーソルが進められたユーザインタフェース要素の名前)を含む(710)。従って、図5A及び図5Bの例において、デバイスは、ユーザジェスチャ504を検出することに応答して現在のフォーカス及びアクセシビリティカーソル502をテキスティングアプリケーションアイコン141から写真アプリケーションアイコン144に進め、名前「写真」は発音されたテキストとして出力されてもよい。
いくつかの実施形態において、第2のユーザインタフェース要素に対応する発音されるテキストは、ユーザオプション(図5A〜図5Nのユーザインタフェースには示されない)を含んでもよい(712)。ユーザ等によりユーザインタフェース要素が操作されてもよい場合、例えば音量制御を調節したり、日付調整ホイールを回転したり、再生リストアイコンを進めたり、テキストフィールド内で移動してもよい場合、ユーザインタフェース要素が調整されうることをユーザが認識できるように、インタラクション制御表現が、ユーザインタフェース要素と関連付けられた発音されたテキストとして発せられてもよい。インタラクション制御表現の例には、「音量制御−上スワイプで上げる、下スワイプで下げる」、「スクラババー−右移動で進む、左移動で後退する」、「月ホイール−上スワイプで前の項目を選択するすなわち1月へと向けてさかのぼる、下スワイプで次の項目を選択するすなわち12月に向けて進む」、「テキストフィールド、上スワイプでカーソルを左に移動させる、下スワイプでカーソルを右に移動させる」等が含まれるが、それらに限定されない。
いくつかの実施形態において、アクセシビリティ情報は、テキストアクセシビリティ情報(例えば、画面上の点字出力、大型印刷ディスプレイ等)を含んでもよい(713)。
いくつかの実施形態において、アクセシビリティ情報は、現在のフォーカスが第1のユーザインタフェース要素から第2のユーザインタフェース要素に移動したことを示すために再生される境界ヒット音を更に含んでもよい(714)。従って、図5A及び図5Bの例において、デバイスが、ユーザジェスチャ504を検出することに応答して現在のフォーカス及びアクセシビリティカーソル502をテキストアプリケーションユーザインタフェース要素アイコン141から写真アプリケーションユーザインタフェースアイコン144に進める場合、境界ヒット音が出力されてもよい。更なる一例として、ユーザインタフェースが3つのユーザインタフェース要素A、B及びCを有し、現在のフォーカスがエレメントA上にある場合、以下の手順は、ユーザインタフェース要素間をナビゲートする際に、ユーザの進捗に関してユーザに通知するのを支援することができるだろう。
●現在のフォーカスは、ユーザインタフェース要素A上にある
●デバイスが、上述の第1の指ジェスチャ等のジェスチャを検出する
●デバイスが、境界ヒット音を発する
●デバイスが、現在のフォーカスをユーザインタフェース要素Aからユーザインタフェース要素Bに変更する
●デバイスが、上述の第1の指ジェスチャのようなジェスチャを検出する
●デバイスが、別の境界ヒット音を発する
●デバイスが、現在のフォーカスをユーザインタフェース要素Bからユーザインタフェース要素Cに変更する
いくつかの実施形態において、デバイスは、起動ジェスチャの選択を更に検出する(716)(すなわち、図5Aのホームボタン204の押下、接触感知表面上のユーザが開始したジェスチャ、特定のパターンの電子デバイスの揺れ、音声による起動等のうちの1つ以上を含むあらゆる適切な起動ジェスチャが検出されてもよい)。それに応答して、デバイスは、現在のフォーカスであるユーザインタフェース要素と関連付けられた動作を実行する(718)。例えば、現在のフォーカスが画像管理アプリケーション144に対応する写真アプリケーションアイコン144(図5B)上にあり、且つデバイスが起動ジェスチャの選択を検出する場合、デバイスは画像管理アプリケーションを実行する。尚、いくつかの実施形態において、起動ジェスチャは、接触感知表面上で実行されるように構成される場合、現在のフォーカスを有するユーザインタフェース要素の場所に依存しない。従って、ユーザは、接触感知表面上の特定の場所に実際に触れるかあるいはその場所と接触し、所定のユーザインタフェース要素を起動する必要はない。
いくつかの実施形態において、デバイスは、接触感知表面上の第2の指ジェスチャを更に検出する(720)。第2の指ジェスチャは、ほぼ第1の指ジェスチャに類似する。第1の指ジェスチャに関連して上述したように、第2の指ジェスチャは、第3のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である。第2の指ジェスチャを検出することに応答して、デバイスは、現在のフォーカスを複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第3のユーザインタフェース要素に変更し、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する(722)。例えば、ジェスチャ506により、デバイスが現在のフォーカス及びアクセシビリティカーソル502を写真アプリケーションアイコン144からカメラアプリケーションアイコン143に進める図5から図5Dへの遷移を参照。
いくつかの実施形態において、第3のユーザインタフェース要素がディスプレイ上で第2のユーザインタフェース要素の上下いずれかにある場合、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報はラッピング音を含む(724)。ラッピング音は、最後に検出されたユーザジェスチャに応答して実行されたナビゲーションの結果、所定の行(又はユーザインタフェース要素のエリア)から異なる行(又はユーザインタフェース要素の異なるエリア)のユーザインタフェース要素にナビゲートするというユーザに対する信号となることを意図する。例えば、ユーザジェスチャ510により、デバイスが現在のフォーカス及びアクセシビリティカーソル502をアプリケーション514の第1の行のビデオアプリケーションアイコン145からアプリケーションアイコン516の次の行の天気アプリケーションアイコン149−1に進める図5Eから図5Fへの遷移を参照。
いくつかの実施形態において、複数のユーザインタフェース要素がスクロール可能なビューにある場合、デバイスは複数のユーザインタフェース要素をスクロールする(726)。例えば、種々のユーザインタフェース画面上に表示された一連のユーザインタフェース要素を介して進む一例を示すUI500IからUI500Jへの遷移を参照。
いくつかの実施形態において、デバイスは、接触感知表面上の第3の指ジェスチャを検出する(728)。第3の指ジェスチャは、第2のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である。第3の指ジェスチャは、第1の指ジェスチャとはほぼ逆である。
第3の指ジェスチャを検出することに応答して、デバイスは、現在のフォーカスを複数のユーザインタフェース要素のうちの第3のユーザインタフェース要素から複数のユーザインタフェース要素のうちの第2のユーザインタフェース要素に変更し、第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する(730)。
いくつかの実施形態において、デバイスは、第2のユーザインタフェース要素が第1の編集可能なテキストフィールド(例えば、図5Kの要素530)であるかを判定し、その場合、デバイスは、第1の編集可能なテキストフィールドの第1のカーソル場所においてカーソル(例えば、図5Kのカーソル532)を設定し、第1の編集可能なテキストフィールド(例えば、図5Kの出力されたエレメントラベル536「User Name」)と関連付けられたアクセシビリティ情報を出力する(732)。
いくつかの実施形態において、第1の編集可能なテキストフィールドと関連付けられたアクセシビリティ情報は、第1の編集可能なテキストフィールドに対応する発音されるテキストとして出力される1つ以上の単語を含んでもよい(734)。また、いくつかの実施形態において、第1の編集可能なテキストフィールドと関連付けられたアクセシビリティ情報は、第1の編集可能なテキストフィールドの第1の文字に対応する発音されるテキストとして出力されるテキスト文字を含んでもよい(736)。
いくつかの実施形態において、デバイスは、第1のジェスチャに対してほぼ垂直の方向に接触感知表面上の第4の指ジェスチャを検出する(738)(例えば、下方向フリックジェスチャ544(図5K)及び550(図5N)は、図5Aのジェスチャ504のような右方向フリックジェスチャに対して垂直である)。第4の指ジェスチャを検出することに応答して、デバイスは、カーソルが第1の編集可能なテキストフィールドの末尾にあるかを判定する(740)。
カーソルが第1の編集可能なテキストフィールドの末尾にない場合(742)、デバイスは、第1の編集可能なテキストフィールド内の第2のカーソル場所に対してカーソルを前方に移動させ、第1の編集可能なテキストフィールド内の第2のカーソル場所と関連付けられたアクセシビリティ情報を出力する。例えば、下方向フリックジェスチャ544(図5K)に応答して、デバイスは、1文字だけカーソル532を移動させ、アルファベット「C」を出力する(図5L)。
いくつかの実施形態において、現在のフォーカスがテキストフィールドユーザインタフェース要素上にある場合、テキストカーソルがテキストフィールドを介して前方に進むかあるいは後方に移動する時、デバイスは、アルファベット単位に基づくテキストフィールドのコンテンツに対応する可聴情報を出力してもよい。従って、本実施形態において、テキストフィールドが単語「client」を含み且つユーザがテキストカーソルをテキストフィールド内でアルファベット毎に移動させている場合、ユーザがテキストカーソルをテキストフィールドの先頭から末尾に向けて進めた時、デバイスはアルファベット「C」、「L」、「I」、「E」等を可聴に出力するだろう(例えば、テキストカーソル532が第1のテキスト列534「client」の前の位置から第1のテキスト列534の「c」と「l」との間の位置に進む図5K及び図5Lを参照)。
しかし、カーソルが第1の編集可能なテキストフィールドの末尾にある場合(744)、デバイスは、第1の編集可能なテキストフィールドの末尾にカーソルを維持し、カーソルが第1の編集可能なテキストフィールドの末尾にあることを示すアクセシビリティ情報を出力する(744)。例えば、下方向フリックジェスチャ550に応答して(図5N)、デバイスは、要素530の編集可能なテキストフィールドの末尾にカーソルを保持し、カーソルが要素530の編集可能なテキストフィールドの末尾にあることを示すアクセシビリティ情報を出力する。。
いくつかの実施形態において、カーソルが第1の編集可能なテキストフィールドにある場合、デバイスは、第4のジェスチャとはほぼ逆の方向に接触感知表面上の第5の指ジェスチャを検出する(746)。第5の指ジェスチャを検出することに応答して、デバイスは、第1の編集可能なテキストフィールド内の第3のカーソル場所へと、第1の編集可能なテキストフィールド内でカーソルを後方に移動させ、第1の編集可能なテキストフィールド内の第3のカーソル場所と関連付けられたアクセシビリティ情報を出力する(748)。例えば、ユーザジェスチャ546を検出した後、テキストカーソル532が第1のテキスト列534の「c」と「l」との間の位置から第1のテキスト列534「client」の前の位置に移動する図5Lから図5Mへの遷移を参照。この例において、第3のカーソル位置は第1のカーソル位置と同一である。
尚、方法700は、検出及び解釈が特定のユーザインタフェース要素に対応する接触感知表面上の場所に接触することとは無関係である第1の種類の指ジェスチャ(例えば、スワイプジェスチャ504)を使用してユーザインタフェース要素間をナビゲートする。方法700は、既存のアクセシビリティ方法を補完又は置換してもよい。例えば、他の種類の指ジェスチャ(例えば、タップジェスチャ、タップ&ホールドジェスチャ又は接触感知表面上の事前定義された速度を下回る指移動)は、これらの他の種類のジェスチャの検出及び解釈が特定のユーザインタフェース要素に対応する接触感知表面上の場所に接触することに依存するアクセシビリティインタフェースにおいて更に使用されてもよい。例えば、上述の図5Hのジェスチャ519の説明を参照。
図8A及び図8Bは、いくつかの実施形態に従う文書部分表示を通信するアクセシビリティ方法を示すフローチャートである。方法800は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法800のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、接触感知表面はディスプレイとは別個である。いくつかの実施形態において、接触感知表面はタッチパッド(例えば、図3の355)である。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある(822)。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法800は、大きな電子文書をナビゲートし且つ大きな文書における現在の場所に関するアクセシビリティ情報を提供する効率的な方法を提供する。この方法により、大きな文書をナビゲートするためにディスプレイ及び接触感知表面を備えた電子デバイスを使用する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲートできるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、複数の部分を有する文書の第1の部分をディスプレイ上に表示する(802)(例えば、図5Pの文書表示エリア552内に表示されている文書553−1の冒頭を示すUI500Pを参照)。本明細書で開示される方法により表示される文書の種類は、メモ、ウェブページ、HTML文書、XML文書、表、スプレッドシート、チャート、電子メール、帳票、通信文書、電子書籍、pdf等を含むがそれらに限定されない。
デバイスは、文書の第1の部分に対応する文書部分可聴表示を更に出力する(803)。例えば、図5Pの例において、文書部分可聴表示は、「表示されている文書の部分1/4」等の発音されるメッセージであってもよい。表、スプレッドシート、チャート又は同様の表形式の文書が表示されている場合、文書部分可聴表示は、表形式の文書内の相対位置、例えば「25行のうちの行1〜5を表示」、あるいは「25列のうちの列A〜Eを表示」又は「列A〜Yのうちの列A〜Eを表示」を示してもよい。
デバイスは、接触感知表面上の第1の指ジェスチャ(例えば、図5Pのユーザジェスチャ555)を検出する(804)。いくつかの実施形態において、第1の指ジェスチャは、接触感知表面上で複数の同時指接触(例えば、図5Pの複数の指のジェスチャ555を参照)を含む(806)。
第1の指ジェスチャを検出することに応答して、デバイスは、文書の第1の部分を表示するのを中止し、その代わり文書の第1の部分に隣接する文書の第2の部分をディスプレイ上に表示し、文書の第2の部分に対応する文書部分可聴表示を出力する(808)。例えば、図5Qにおいてユーザインタフェースが文書の冒頭553−1を表示するのを中止し、且つその代わり文書表示エリア552内に文書の第2の部分553−2を表示した図5Pから図5Qへの遷移を参照。部分553−2は、文書553の部分553−1に隣接する。
いくつかの実施形態において、文書部分可聴表示は、現在表示されている文書の部分に関するナビゲーション情報を提供する発音されるテキストとして出力される1つ以上の単語を含む(810)。例えば、図5Qの例において、文書部分可聴表示は、「表示されている文書の部分2/4」等の発音されるメッセージであってもよい。表、スプレッドシート、チャート又は同様の表形式の文書が表示されている場合、文書部分可聴表示は、表形式の文書内の相対位置、例えば「25行のうちの行6〜10を表示」、あるいは「25列のうちの列F〜Jを表示」又は「列A〜Yのうちの列F〜Jを表示」を示してもよい。
いくつかの実施形態において、デバイスは、文書の第2の部分を表示する間に接触感知表面上の第2の指ジェスチャを検出する(812)。接触感知表面上の第2の指ジェスチャを検出することに応答して、デバイスは、文書の第2の部分を表示するのを中止し、文書の第2の部分に隣接する文書の第3の部分をディスプレイ上に表示し、文書の第3の部分に対応する第3の文書部分可聴表示を出力する(814)。例えば、デバイスがユーザジェスチャ556を検出する図5Qを参照。それに応答して、図5Rにおいて、デバイスは、文書表示エリア552内に文書の第3の部分553−3を表示する。部分553−3は文書553の部分553−2に隣接する。デバイスが複数の指のジェスチャ557を検出する図5Rを更に参照し、それに応答して図5Sにおいて、デバイスは、文書表示エリア552内に文書の第4の部分553−4を表示する。
いくつかの実施形態において、文書の第3の部分に対応する文書部分可聴表示は、文書の第3の部分に対応する発音されるテキストとして出力される1つ以上の単語を含む(816)。例えば、図5Rの例において、文書の第3の部分に対応する文書部分可聴表示は、「表示されている文書の部分3/4」等の発音されるメッセージであってもよい。図5Sの例において、文書の第4の部分に対応する文書部分可聴表示は、「文書部分4/4を表示」等の発音されるメッセージであってもよい。
いくつかの実施形態において、文書の結末が表示されている場合、文書部分可聴表示は、「表示された文書の結末」又は「最後の文書部分を表示」等の発音されるメッセージとしてその趣意で1つ以上の単語を含んでもよい。文書の第4の部分553−4が文書表示エリア552内に表示され且つ文書の結末が表示される図5Sを参照。
いくつかの実施形態において、デバイスは、文書の第3の部分を表示する間に接触感知表面上の第3の指ジェスチャを検出する(818)。第3の指ジェスチャは、第2の指ジェスチャとはほぼ逆の方向にある(例えば、図5Sのユーザジェスチャ558は図5Rのジェスチャ557とはほぼ逆である)。接触感知表面上の第3の指ジェスチャを検出することに応答して、デバイスは、文書の第3の部分を表示するのを中止し、ディスプレイ上に文書の第2の部分を再表示し、文書の第2の部分に対応する文書部分可聴表示を出力する(820)。例えば図5Tは、ジェスチャ558を検出することに応答して文書の部分553−3を再度表示するユーザインタフェースを示す。いくつかの実施形態において、第2の文書部分可聴表示は、2回以上出力される場合に「表示されている文書の部分3/4を再表示」等の更なるメッセージを含んでもよい。いくつかの実施形態において、ユーザジェスチャが表示されている文書の上部にユーザを戻す場合、ユーザが文書の上部にいること、例えば「文書の冒頭を再表示」を示す文書部分可聴表示が出力されてもよい。
図9A及び図9Bは、いくつかの実施形態に従うユーザインタフェースナビゲーション設定を調整するために場所に依存しないジェスチャを使用するアクセシビリティ方法を示すフローチャートである。方法900は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法900のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、接触感知表面はディスプレイとは別個である。いくつかの実施形態において、接触感知表面はタッチパッド(例えば、図3の355)である。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある(926)。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法900は、ユーザインタフェースナビゲーション設定を調整し且つ設定に関するアクセシビリティ情報を提供するために場所に依存しないジェスチャを使用する効率的な方法を提供する。方法により、ディスプレイ及び接触感知表面を備えた電子デバイス上でナビゲーション設定を調整する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲーション設定を調整できるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、ディスプレイ上に複数のユーザインタフェース要素を表示する(902)。
デバイスは、接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャ(例えば、図5Kのユーザジェスチャ544)を検出する(904)。接触感知表面上の指による第1のユーザインタフェースナビゲーションジェスチャを検出することに応答して、デバイスは、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って、複数のユーザインタフェース要素においてナビゲートする(906)。例えば、図5Kと図5Lとの間で、テキストカーソル532は、1文字、すなわちユーザ名テキスト入力要素530内の第1のテキスト列534の前の位置から列「client」の「c」の直後に位置に進んだ。図5K及び図5Lにおいて、現在のナビゲート可能な単位型は、単語ではなく文字によるものである。
いくつかの実施形態において、複数のナビゲート可能な単位型は、上述したような文字、単語、文、行、段落、ページ、訪問済みのリンク、未訪問のリンク及び/又は他のあらゆるコンテキストに適当なナビゲート可能な単位を含んでもよい(908)。また、ナビゲート可能な単位型に関するアクセシビリティ情報は、上述したような「文字」、「単語」、「文」、「段落」、「ページ」、「訪問済みのリンク」、「未訪問のリンク」又は他のコンテキストに適当なナビゲート可能な単位を説明するあらゆる単語等の発音される単語であってもよい(910)。
デバイスは、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャ(例えば、図5Uの回転子ジェスチャ562)を検出する(912)。換言すると、任意のユーザインタフェース要素に対応する接触感知表面上の場所にジェスチャが接触するか否かは重要ではない。
いくつかの実施形態において、第1のユーザインタフェースナビゲーション設定ジェスチャは、複数の指のジェスチャ(例えば、それぞれ第1の指接触562−1及び第2の指接触562−2を含む図5Uの回転子ジェスチャ562)である(914)。いくつかの実施形態において、第1のユーザインタフェースナビゲーション設定ジェスチャは、2本指の回転ジェスチャ(例えば、図5Uの回転子ジェスチャ562)である(915)。
いくつかの実施形態において、第1のユーザインタフェースナビゲーション設定ジェスチャは、距離により区別される第1の指接触及び同時第2の指接触を含み、第1の指接触と第2の指接触との間の距離は中心点を含む。第1の指接触及び第2の指接触は、タッチスクリーンディスプレイ上で中心点を中心に回転する(916)。例えば、接触感知表面上で第1の指接触と第2の指接触との間の仮想中心点を中心に回転する(562−3及び562−4)第1の指接触及び第2の指接触(562−1及び562−2)を含む図5Uの回転子ジェスチャ562を参照。上述したように、このジェスチャは、不可視ダイヤル、不可視回転子又は不可視制御の回転を模している。
ユーザインタフェースナビゲーション設定ジェスチャと関連付けられた回転は、時計回り/反時計回り方式であってもよい。しかし、変更すべき設計面での考慮事項及びユーザインタフェースオプションに依存して、いくつかの実施形態において、ユーザインタフェースナビゲーション設定ジェスチャは、随時又は適宜、右/左又は上/下の方位で更に実行されてもよい。
接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、デバイスは、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に現在のナビゲート可能な単位型を変更し、第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する(918)。
現在のナビゲート可能な単位型を第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更した後、デバイスは、接触感知表面上の指による第2のユーザインタフェースナビゲーションジェスチャを検出する(920)。第2のユーザインタフェースナビゲーションジェスチャは、第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である(例えば、図5Kのジェスチャ544、すなわち下方向スワイプジェスチャ又は下方向フリックジェスチャと同種のジェスチャである図5Vのユーザジェスチャ546を参照)。接触感知表面上の指によるこの第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、デバイスは、第2のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って複数のユーザインタフェース要素においてナビゲートする(922)。例えば、図5Wのテキストカーソル532の場所は、現在のナビゲート可能な単位型に従って1単語、すなわちテキスト列「client」の先頭から名前「li」の先頭に前方に移動した(すなわち、単語単位のナビゲーション)。
いくつかの実施形態において、次にデバイスは、接触感知表面上の第2のユーザインタフェースナビゲーション設定ジェスチャを検出してもよい(924)。第2のユーザインタフェースナビゲーション設定ジェスチャは、複数のユーザインタフェース要素のうちのいずれかに対応する接触感知表面上の場所に接触することとは無関係である。第1のユーザインタフェースナビゲーション設定ジェスチャは関連付けられた方向を有し(例えば、図5Uの回転子ジェスチャ562は反時計回りの方向である)、第2のユーザインタフェースナビゲーション設定ジェスチャは、第1のユーザインタフェースナビゲーション設定ジェスチャとはほぼ逆である関連付けられた方向を有する(例えば、図5Xの回転子ジェスチャ566は時計回りの方向である)。第2のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、デバイスは、現在のナビゲート可能な単位型を第2のナビゲート可能な単位型(例えば、単語)から第1のナビゲート可能な単位型(例えば、文字)に変更し、第1のナビゲート可能な単位型に関するアクセシビリティ情報(例えば、「文字」を出力)を出力する。回転子ジェスチャ566の結果、現在のナビゲート可能な単位型が文字に設定され、且つジェスチャ568が単語「li」の「l」と「i」との間の位置に1文字前方にテキストカーソル532を移動させる図5Y及び図5Zを更に参照。
いくつかの実施形態において、現在のナビゲート可能な単位型はコンテキストに依存し、現在のフォーカスは、複数のユーザインタフェース要素のうちのユーザインタフェース要素上にある(928)。これらの実施形態において、デバイスは、現在のフォーカスを有する複数のユーザインタフェース要素のうちの1つの種類のユーザインタフェース要素に基づいて現在のナビゲート可能な単位型を変更する(930)。例えば、ウェブページにおいてユーザは回転子の設定に依存してリンク単位で移動できるが、このアプリケーション挙動はストップウォッチ計時アプリケーションにおいては意味がない。従って、アクセシビリティユーザインタフェースは、ユーザがその時インタラクションしているユーザアプリケーションを考慮して、現在のナビゲート可能な単位型を、現在のフォーカスを含むユーザインタフェース要素に対して適切な設定へと変更する。
図10A〜図10Cは、いくつかの実施形態に従うユーザインタフェースコンテナを介してナビゲートするアクセシビリティ方法を示すフローチャートである。方法1000は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法1000のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、接触感知表面はディスプレイとは別個である。いくつかの実施形態において、接触感知表面はタッチパッド(例えば、図3の355)である。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある(926)。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法1000は、複雑な表示装置を介してナビゲートするためにコンテナを使用する効率的な方法を提供する。方法により、ディスプレイ及び接触感知表面を備えた電子デバイスを使用する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲートできるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、ディスプレイの少なくとも第1の部分を接触感知表面(例えば、図6Bのウィンドウ612、図6Hのウィンドウ634)にマッピングする(1001)。
デバイスは、ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する(1002)(例えば、図6Bのウィンドウ612は複数のコンテナを含み、図6Hのウィンドウ634は複数のコンテナを含む)。
いくつかの実施形態において、複数のユーザインタフェースコンテナは、ユーザインタフェースコンテナの階層を含む(1004)。例えば、説明した3つのエリアが階層を形成するUI600B〜UI600Dを参照。階層において、ウィンドウ612は第1のレベルであり、UI600Cで現在のコンテナ標識614−2と共に示されたウィンドウ612のエリアは第2の下位レベルであり、UI600Dの現在のコンテナ標識614−3内のウィンドウ612のエリアは第3の更なる下位レベルである。
デバイスは、複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する(1006)(例えば、UI600Bのユーザインタフェースコンテナ選択イベント616は、UI600Cで現在のコンテナ標識614−2と共に示されたウィンドウ612のエリアを選択する)。あらゆる適切なジェスチャは、ユーザインタフェースコンテナ選択イベントに対して使用されてもよい。いくつかの実施形態において、2本指のスワイプジェスチャ616等の接触感知表面上の特定のジェスチャは、この目的のために使用される。
いくつかの実施形態において、デバイスは、ユーザインタフェースコンテナ選択イベントを検出することに応答して第1のユーザインタフェースコンテナと関連付けられたアクセシビリティ情報を出力する(1008)。例えば、図6Cにおいて、標識614−2により輪郭で示されたコンテナと関連付けられた可聴情報は、発音される単語「コンテナとのインタラクション、3つの項目」であってもよい。
いくつかの実施形態において、デバイスは、ユーザインタフェースコンテナ選択イベントを検出することに応答して第1のユーザインタフェースコンテナ(例えば、図6Cの現在のコンテナ標識614−2)を視覚的に強調表示する(1010)。いくつかの実施形態において、暗い境界は、所定のユーザインタフェースコンテナが現在選択されているコンテナであることを示す。
いくつかの実施形態において、第1のユーザインタフェースコンテナは、複数のユーザインタフェース要素を含む(1012)(例えば図6Cにおいて、標識614−2により輪郭を示されたコンテナは、2つのボタン及びスクローリングテキストボックスを含む)。
いくつかの実施形態において、複数のユーザインタフェース要素の複数のUIエレメントは、第1のユーザインタフェースコンテナ内でほぼ一方向に整列される(1014)。例えば図6A−1において、ユーザインタフェース要素604−1、604−2及び604−3は、コンテナ604内に垂直に整列される。別の例として、UI600P〜UI600S(図6P〜図6S)において、行670−1〜670−6の各々は軸671を有し、ユーザインタフェース要素(単語)は軸671に沿って整列される。
ユーザインタフェースコンテナ選択イベントを検出することに応答して、デバイスは、ディスプレイの第1の部分を接触感知表面にマッピングするのを中止し、接触感知表面と同一の広がりを有するかあるいはほぼ同一の広がりを有する第1のユーザインタフェースコンテナをマッピングする(1016)。例えば、ジェスチャ616(図6B)に応答して、マッピング620(図6C)はマッピング615(図6B)を置換する。
いくつかの実施形態において、ユーザインタフェースコンテナの接触感知表面603へのマッピングは、ユーザインタフェースコンテナが接触感知表面と同一の広がりを有するかあるいはほぼ同一の広がりを有する比例マッピングである。本明細書で使用される場合、同一の広がりを有することは、ユーザインタフェースコンテナのエリア全体が接触感知表面のエリア全体に比例してマッピングされる、すなわちユーザからのタッチベースの入力を受け入れるのに動作可能な接触感知表面の100%にユーザインタフェースコンテナの100%が比例してマッピングされることを意味する。本明細書で使用される場合、ほぼ同一の広がりを有することは、比例マッピングがユーザインタフェースコンテナを接触感知表面のかなりの部分(例えば、80%〜100%)にマッピングすることを意味する。
いくつかの実施形態において、ユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するようにマッピングすることは、コンテナが高さ及び幅を有することを意味し、コンテナのほぼ全てのエリアは、このコンテナの高さを接触感知表面の高さに変倍し且つこのコンテナの幅を接触感知表面の幅に変倍することにより、接触感知表面にマッピングされる。
ユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するようにマッピングすることにより、ディスプレイ上のアクセシブルナビゲーションを現在選択されているユーザインタフェースコンテナの内部に限定し、接触感知表面のエリアは、現在選択されているユーザインタフェースコンテナのエリアへと変倍される。マッピングされた接触感知表面がディスプレイ全体ではなく現在選択されているコンテナのみを示すため、ユーザは偶然にディスプレイの他のエリアに迷い込むことはない。
いくつかの実施形態において、第1のユーザインタフェースコンテナが接触感知表面とほぼ同一の広がりを有するように比例してマッピングされる間、デバイスは、複数のユーザインタフェース要素のうちの少なくとも1つのユーザインタフェース要素がマッピングされる接触感知表面のエリアに接触する接触感知表面上の第1のユーザインタフェースナビゲーションジェスチャを検出する。第1のユーザインタフェースナビゲーションジェスチャを検出することに応答して、デバイスは、複数のユーザインタフェース要素のうちの少なくとも1つのユーザインタフェース要素と関連付けられたアクセシビリティ情報を更に出力する(1018)。例えば、ユーザがコンテナのユーザインタフェース要素に対応する接触感知表面上の場所の上をナビゲートする時、アクセシブルユーザインタフェースは、対応するユーザインタフェース要素に関する可聴情報を提供する。例えば、図6E及び図6Fのユーザインタフェースナビゲーションジェスチャ629、並びに図6I及び図6Jのユーザインタフェースナビゲーションジェスチャ640の上述の説明を参照。
いくつかの実施形態において、第1のユーザインタフェースコンテナが接触感知表面とほぼ同一の広がりを有するように比例してマッピングされる間、デバイスは、接触感知表面上の第2のユーザインタフェースナビゲーションジェスチャを検出する。第2のユーザインタフェース要素ナビゲーションジェスチャを検出することは、指接触を検出すること及びほぼ一方向に指接触の移動を検出することを含む。ほぼ一方向に指接触の移動を検出することに応答して、デバイスは、指接触の移動に従って第1のユーザインタフェースコンテナの現在のフォーカスを移動させ、現在のフォーカスに対する場所は、複数のユーザインタフェース要素と整列された第1の軸内にほぼ限定される(1020)。例えば、図6Q及び図6Rのユーザインタフェースナビゲーションジェスチャ674の上述の説明を参照。
また、これらの実施形態において、一方向からほぼ逸れる指接触の移動(例えば、一方向から所定の角度(例えば、30、40又は45°)より大きい方向に移動する)をデバイスが検出する場合、それに応答して、デバイスは、整列された第1の軸内のユーザインタフェース要素から整列された第1の軸に沿う複数のユーザインタフェース要素のうちの1つ以外の第1のユーザインタフェースコンテナのユーザインタフェース要素に現在のフォーカスを移動させる(1022)。例えば、図6R及び図6Sのユーザインタフェースナビゲーションジェスチャ676の上述の説明を参照。いくつかの実施形態において、デバイスは、一方向に対して垂直の方向に事前定義された量(例えば、8mm)より大きい移動を検出する場合、一方向からほぼ逸れる指接触の移動を検出する。
いくつかの実施形態において、第1のユーザインタフェースコンテナが接触感知表面とほぼ同一の広がりを有するように比例してマッピングされる間、デバイスは、複数のユーザインタフェースコンテナのうちの第2のユーザインタフェースコンテナを選択する別のユーザインタフェースコンテナ選択を検出する。別のユーザインタフェースコンテナ選択イベントを検出することに応答して、デバイスは、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングするのを中止し、第2のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングする(1024)。第2のユーザインタフェースコンテナは、第1のユーザインタフェースコンテナの真下のユーザインタフェースコンテナの階層のレベルである。例えば、ジェスチャ618(図6C)に応答して、マッピング624(図6D)はマッピング620(図6C)を置換する。
いくつかの実施形態において、デバイスは、第1のユーザインタフェースコンテナを選択解除するユーザインタフェースコンテナナビゲーションイベントを検出する場合、第1のユーザインタフェースコンテナを接触感知表面とほぼ同一の広がりを有するように比例してマッピングするのを中止し、ディスプレイの第1の部分を接触感知表面に再マッピングする(1026)。例えば、ユーザインタフェースコンテナ選択解除イベント628(図6F)を検出することに応答して、現在のコンテナ標識614−4により強調表示されたユーザインタフェースコンテナは、図6Eにおいてマッピングされた(625)ように図6Fの接触感知表面603に再マッピングされる。同様に、図6Cのジェスチャ618が左への2本指のスワイプジェスチャ(右への2本指のスワイプジェスチャではなく)であった場合、マッピング615(図6B)はマッピング620(図6C)を置換しただろう。
いくつかの実施形態において、デバイスは、ユーザインタフェースコンテナ選択イベントを検出することに応答してユーザインタフェースコンテナの階層を下に移動する(1028)。いくつかの実施形態において、ユーザインタフェースコンテナ選択イベントは複数の指のジェスチャである(1030)。いくつかの実施形態において、ユーザインタフェースコンテナ選択イベントは複数の指の非ピンチジェスチャである(1032)。いくつかの実施形態において、ユーザインタフェースコンテナ選択イベントは複数の指スワイプジェスチャである(1034)。例えば上述したように、デバイスは、右への2本指のスワイプジェスチャ616(図6B)、618(図6C)及び622(図6D)に応答してコンテナの階層を下に移動する。
いくつかの実施形態において、デバイスは、ユーザインタフェースコンテナ選択解除イベントを検出することに応答してユーザインタフェースコンテナの階層を上に移動する(1036)。いくつかの実施形態において、ユーザインタフェースコンテナ選択解除イベントは複数の指のジェスチャである(1038)。いくつかの実施形態において、ユーザインタフェースコンテナ選択イベントは複数の指のピンチジェスチャである(1040)。いくつかの実施形態において、ユーザインタフェースコンテナ選択イベントは複数の指のスワイプジェスチャである(1042)。例えば上述したように、デバイスは、左への2本指のスワイプジェスチャ628(図6F)に応答してコンテナの階層を上に移動する。
図11A〜図11Bは、いくつかの実施形態に従う複数の指のバウンディングボックス内の点の周囲を拡大するアクセシビリティ方法を示すフローチャートである。方法1100は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法1100のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法1100は、複数の指のジェスチャに応答してタッチスクリーンディスプレイの縁又は隅の点を含むディスプレイ上のあらゆる点の周囲を拡大する効率的な方法を提供する。方法により、接触感知表面を備えた電子デバイスを使用する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲートできるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する(1102)。いくつかの実施形態において、第1の倍率は、デフォルトの拡大されていないビューに対応する(1104)(例えば、図4Aを参照)。
デバイスは、タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出し(1106)、第1の複数の指のジェスチャを検出することは、タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む。(例えば、タッチスクリーン112上で3つの同時指接触591−1a、591−1b及び591−1cを含む複数の指のジェスチャ591が検出される図5OOを参照。)
いくつかの実施形態において、第1の複数の指のジェスチャは3本指のジェスチャである(1108)。いくつかの実施形態において、第1の複数の指のジェスチャは3本指のダブルタップジェスチャである(1110)。(例えば、タッチスクリーン112上で3つの同時指接触591−1a、591−1b及び591−1cを含む複数の指のジェスチャ591が検出され、3本指のダブルタップジェスチャを示してもよい図5OOを参照。)
デバイスは、同時に複数の指の接触に対するバウンディングボックスを判定する(1112)。いくつかの実施形態において、バウンディングボックスは矩形のバウンディングボックスである(1114)。(例えば、矩形のバウンディングボックス592−1が同時に複数の指の接触591−1a、591−1b及び591−1cに対して判定される図5OOを参照。)
タッチスクリーンディスプレイ上で第1の複数の指のジェスチャを検出することに応答して、デバイスは、このバウンディングボックス内の点の周囲のユーザインタフェースのコンテンツをタッチスクリーンディスプレイ上で第1の倍率より大きい第2の倍率に拡大する(1116)。例えば、複数の指のジェスチャ591(図5OO)は、UI500II(図5II)のコンテンツを第2の倍率(例えば、図5JJのUI500JJ)に拡大してもよい。バウンディングボックスがタッチスクリーンディスプレイの中心に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内のデフォルト位置(例えば、重心)にある(例えば、図5OOのバウンディングボックス592−1の重心の点593−1aを参照)。バウンディングボックスがタッチスクリーンディスプレイの中心から離れて配置される場合、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけバウンディングボックス内のデフォルト位置からバウンディングボックスのそれぞれの縁に向けて変位される。(例えば、タッチスクリーン112の右端により近接するために点593−1bがバウンディングボックス592−2の右端により近接する図5OOのバウンディングボックス592−2を参照)
いくつかの実施形態において、このバウンディングボックス内の点の周囲のユーザインタフェースのコンテンツを拡大することは、このバウンディングボックス内の点の周囲でズーミングイン動画を表示することを含む(1118)。
いくつかの実施形態において、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位される距離が増加する時に増加する量だけバウンディングボックスの重心からバウンディングボックスのそれぞれの縁に向けて変位される(1120)(例えば、バウンディングボックス592−1よりもタッチスクリーン112の右端に近接しており、点593−1bがバウンディングボックス592−2の右端により近接している図5OOのバウンディングボックス592−2を、バウンディングボックス592−2よりもタッチスクリーン112の右端に更に近接しており、点593−1cが、点593−1bがバウンディングボックス592−2の縁に近接しているよりも、バウンディングボックス592−3の右端に更に近接している、図5OOのバウンディングボックス592−3と比較せよ)。
いくつかの実施形態において、このバウンディングボックス内の点は、バウンディングボックスがタッチスクリーンディスプレイの中心からタッチスクリーンディスプレイの対応する縁に向けて変位される距離に比例する量だけバウンディングボックス内の点からバウンディングボックスのそれぞれの縁に向けて変位される(1122)(例えば、図5OO内においてタッチスクリーン112の中心により近接するバウンディングボックス592−2内の点593−1bを、バウンディングボックス592−2よりもタッチスクリーン112の中心からより遠く、点593−1cが、点593−1bがバウンディングボックス592−2の縁に近接しているよりも、比例してバウンディングボックス592−3の右端により近接している、図5OOのバウンディングボックス592−3内の点593−1cと比較せよ)。
いくつかの実施形態において、バウンディングボックスのそれぞれの縁がタッチスクリーンディスプレイの対応する縁に配置される場合、このバウンディングボックス内の点は、バウンディングボックス内の点からバウンディングボックスのそれぞれの縁に変位される(1124)(例えば、図5OOのバウンディングボックス592−3内の点593−1c、図5OOのバウンディングボックス592−5内の点593−1e及び図5PPのバウンディングボックス592−8内の点593−1hを参照)。
いくつかの実施形態において、タッチスクリーンディスプレイ上に第2の倍率でユーザインタフェースのコンテンツを表示する間、デバイスは、タッチスクリーンディスプレイ上で第2の複数の指のジェスチャを検出する。タッチスクリーンディスプレイ上で第2の複数の指のジェスチャを検出することに応答して、デバイスは、ユーザインタフェースのコンテンツを第1の倍率に縮小する(1126)。例えば、別の複数の指のジェスチャ591(図5OO)は、UI500JJ(図5JJ)のコンテンツを第1の倍率(例えば、図5IIのUI500II)に縮小してもよい。これらの実施形態において、第2の複数の指のジェスチャは3本指のジェスチャである(1128)こと、第2の複数の指のジェスチャは3本指のダブルタップジェスチャである(1130)こと、第2の複数の指のジェスチャは第1の複数の指のジェスチャと同一であるかあるいはほぼ同一である(1132)こと、及び/又はユーザインタフェースのコンテンツを縮小することはズーミングアウト動画を表示することを含む(1134)ことのうちのいずれかも実現されてもよい。
図12A〜図12Bは、いくつかの実施形態に従う1本指のプッシュパニングのアクセシビリティ方法を示すフローチャートである。方法1200は、アクセシビリティモジュール129と組み合わせてディスプレイ及び接触感知表面を備えた多機能デバイス等の電子デバイス(例えば、図3の300)において実行される。方法1200のいくつかの動作は組み合わされてもよく、且つ/あるいはいくつかの動作の順序は変更されてもよい。
いくつかの実施形態において、ディスプレイはタッチスクリーンディスプレイ(例えば、図2の112)であり、接触感知表面はディスプレイ上にある。いくつかの実施形態において、方法は、タッチスクリーンディスプレイを備えたポータブル多機能デバイス(例えば、ポータブル多機能デバイス100)において実行される。
以下に説明するように、方法1200は、コンテンツをスクロールするために複数の指の及び1本指の双方を使用する効率的な方法を提供する。方法により、接触感知表面を備えた電子デバイスを使用する場合に視覚に障害のあるユーザが認識する際の負担を軽減し、より効率的なヒューマンマシンインタフェースを生成する。バッテリ駆動のデバイスの場合、ユーザがより高速に且つより効率的にナビゲートできるようにすることにより節電し、バッテリ充電の間隔を長くする。
デバイスは、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する(1202)。いくつかの実施形態において、タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示することは、ユーザインタフェースのコンテンツの拡大されたビューを表示することを含む(1204)。(例えば、図5JJを参照。)
デバイスは、タッチスクリーンディスプレイ上で複数の同時指接触を検出する(1206)。いくつかの実施形態において、複数の同時指接触は3つの同時指接触である(1208)(例えば、図5JJの3本指の移動ジェスチャ582を参照。)
デバイスは、タッチスクリーンディスプレイ上で複数の同時指接触の移動を検出する(1210)。(例えば、図5JJの3本指の移動ジェスチャ582を参照。)
デバイスは、複数の同時指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする(1212)(例えばデバイスは、複数の同時指接触の重心の移動を追跡するか、あるいは複数の同時指接触のうちの1つの指接触の重心の移動を追跡するユーザインタフェースの2次元平行移動を実行する)。(例えば、図5JJに示された3本指の移動ジェスチャ582に応答して、アクセシビリティユーザインタフェースは、ユーザインタフェースアプリケーションアイコンの株149−2、音声メモ142、アラーム149−4及び辞書149−5を表示するのではなく、図5KK内でディスプレイの上部分のアプリケーションアイコンの写真144及びカメラ143、並びにディスプレイの下部分の株149−2及び音声メモ142を表示するようにパンされることを参照。)
いくつかの実施形態において、複数の同時指接触のうちの1つ以外の全ての引き上げを検出する前、デバイスは、少なくとも2つの残る指接触を検出し続ける間に複数の同時指接触のうちのいくつかの引き上げを検出する(例えば、3つの同時指接触の場合、デバイスは、3つの同時指接触のうちの1つの引き上げを検出する)。デバイスは、タッチスクリーンディスプレイ上で少なくとも2つの残る指接触の移動を検出し、少なくとも2つの残る指接触の移動に従ってユーザインタフェースのコンテンツをスクロールする(例えば、少なくとも2つの残る指接触の重心の移動を追跡するか、あるいは少なくとも2つの残る指接触のうちの1つの指接触の重心の移動を追跡する、ユーザインタフェースの2次元平行移動)(1214)。
デバイスは、唯一の残る指接触を検出し続ける間に複数の同時指接触のうちの1つ以外の全ての引き上げを検出する(1216)(例えば図5QQにおいて、デバイスが複数の同時指接触597−1のうちの1つ以外の全ての引き上げを検出することを参照)。例えば、3つの同時指接触の場合、唯一の残る指接触は、他の2つの接触の引き上げが検出された後に残る3つの同時指接触のうちの1つである。
唯一の残る指接触がタッチスクリーンディスプレイの事前定義された中心部分(例えば、タッチスクリーンディスプレイの中央の60%)に配置される場合、デバイスは、ユーザインタフェースのコンテンツのスクローリングを中止する(1218)(例えば図5QQにおいて、唯一の残る指接触597−1がタッチスクリーン112の事前定義された中心部分598に配置される場合、ユーザインタフェースはユーザインタフェースのコンテンツのスクローリングを中止することを参照。)
唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分(例えば、タッチスクリーンディスプレイの事前定義された中心部分と縁との間のタッチスクリーンディスプレイの残りの40%)に配置される場合、デバイスは、ユーザインタフェースのコンテンツをスクロールする(1220)。(例えば図5QQにおいて、唯一の残る指接触597−2が事前定義された境界部分599の内側の縁599−1に近接して配置される結果、タッチスクリーン112の縁から離れたユーザインタフェースのコンテンツをスクロールする。)
いくつかの実施形態において、唯一の残る指接触がタッチスクリーンディスプレイの事前定義された境界部分に配置される場合、デバイスは、ユーザインタフェースのコンテンツをスクロールし(1222)、唯一の残る指接触に最近接するタッチスクリーンディスプレイの縁から離れるようにユーザインタフェースのコンテンツをスクロールすること(例えば、唯一の残る指接触がタッチスクリーンディスプレイの左端に最近接する場合にユーザインタフェースを左から右に平行移動すること、唯一の残る指接触がタッチスクリーンディスプレイの右端に最近接する場合にユーザインタフェースを右から左に平行移動すること、唯一の残る指接触がタッチスクリーンディスプレイの上端に最近接する場合にユーザインタフェースを上部から下部に平行移動すること又は唯一の残る指接触がタッチスクリーンディスプレイの下端に最近接する場合にユーザインタフェースを下部から上部に平行移動すること)を含む。すなわち、唯一の残る指接触がスクリーンの左端に最近接する場合、ユーザインタフェースのコンテンツは、画面の右端に向けてスクロールすることにより、タッチスクリーンディスプレイの縁の左端を越えたユーザインタフェースコンテンツを示す。
いくつかの実施形態において、唯一の残る指接触に最近接するタッチスクリーンディスプレイの縁から離れたユーザインタフェースのコンテンツをスクロールすることは、唯一の残る指接触に最近接するタッチスクリーンディスプレイの縁と唯一の残る指接触との間の距離に反比例するスクローリング速度を有する(1224)(すなわち、唯一の残る指接触が唯一の残る指接触に最近接するタッチスクリーンディスプレイの縁により近接して移動する時、スクローリング速度は増加する)。(例えば、唯一の残る指接触597−3がユーザインタフェースにおいてコンテンツを左から右にスクロールするよりゆっくりと唯一の残る指接触597−2がユーザインタフェースにおいてコンテンツを左から右にスクロールする図5QQを参照。)
いくつかの実施形態において、スクローリング速度の増加は、唯一の残る指接触の移動の速度ではなく、タッチスクリーンディスプレイの事前定義された境界部分における唯一の残る指接触の位置に基づく。
いくつかの実施形態において、複数の同時指接触のうちの1つ以外の全ての引き上げを検出した後、デバイスは、タッチスクリーンディスプレイの事前定義された境界部分において唯一の残る指接触の引き上げを検出し、タッチスクリーンディスプレイの事前定義された境界部分において唯一の残る指接触の引き上げを検出することに応答して、ユーザインタフェースのコンテンツをスクロールするのを中止する(1226)。
共通のコアジェスチャ集合
いくつかの実施形態において、上述したジェスチャの集合のうちのいくつか又は全ては、異なるフォームファクタのアクセシブル電子デバイス上で使用されてもよい。例えば、場所に依存しないフリック/スワイプジェスチャ、ナビゲーション設定ジェスチャ(例えば、回転子ジェスチャ)及びスプリットジェスチャ等のナレーションナビゲーションに対するジェスチャのグループは、トラックパッド及び/又はタッチスクリーンを備えたデスクトップコンピュータ、トラックパッド及び/又はタッチスクリーンを備えたラップトップコンピュータ、タッチパッド及び/又はタッチスクリーンを備えたタブレットコンピュータ、並びにトラックパッド及び/又はタッチスクリーンを備えたポータブル多機能デバイス(例えば、Cupertino,CaliforniaのApple Inc.のiPhone(登録商標)デバイス及びiPod Touch(登録商標)デバイス等のハンドヘルドデバイス)用のアクセシブルユーザインタフェースの一部として実現されてもよい。これらのフォームファクタの全てで使用されるジェスチャのグループは、アクセシブルデバイスに対して共通のコアジェスチャ集合を形成する。
そのような共通のコアジェスチャ集合は、複数のデバイスフォームファクタにわたり同一の方法で動作する整合性のとれた学習しやすいインタフェースを提供する。ユーザが使用するアクセシブルデバイスの種類毎にゼロから新しいユーザインタフェースを学習する必要がないため、このような共通性により、ユーザ、特に物理的障害又は学習障害のあるユーザが認識する際の負担を軽減する。
いくつかの実施形態において、アクセシビリティのための共通のコアジェスチャ集合は、実行可能な命令が格納されたコンピュータ読み取り可能な記憶媒体で具体化される。実行可能な命令は、アクセシビリティのための共通のコアジェスチャ集合を認識する命令を含む。命令が接触感知表面を備えた電子デバイスにより実行される場合、命令により、デバイスは、共通のコアジェスチャ集合から選択されたジェスチャを認識し且つそれに応答する。コンピュータ読み取り可能な記憶媒体は、トラックパッド及び/又はタッチスクリーンを備えたデスクトップコンピュータ、トラックパッド及び/又はタッチスクリーンを備えたラップトップコンピュータ、タッチパッド及び/又はタッチスクリーンを備えたタブレットコンピュータ、並びにトラックパッド及び/又はタッチスクリーンを備えたポータブル多機能デバイスのうちの2つ以上を含む複数のアクセシブルデバイスフォームファクタに設置されるように構成される。
いくつかの実施形態において、アクセシビリティのための共通のコアジェスチャ集合を認識する命令は、高速ランダムアクセスメモリ、フラッシュメモリ、磁気記憶媒体、光学記憶媒体及び他の種類の不揮発性メモリ等の複数のコンピュータ読み取り可能な記憶媒体の種類に格納されるように構成される。
上述した情報処理方法のステップは、汎用プロセッサ又は特定用途向けチップ等の情報処理装置において1つ以上の機能モジュールを実行することにより実現されてもよい。これらのモジュール、これらのモジュールの組合せ及び/又は汎用ハードウェアとの組合せ(例えば、図1A、図1B及び図3に関連して上述したような)は、本発明の保護の範囲内に全て含まれる。
説明のために、特定の実施形態を参照して上記の説明を説明した。しかし、上記の例示的な説明は、本発明を網羅すること又は開示された厳密な形式に限定することを意図しない。多くの変更及び変形が上記教示に鑑みて可能である。本発明の原理及び実際的な応用例を最適に説明するために実施形態が選択され且つ説明されたことより、当業者は、考えられる特定の用途に適するような本発明及び種々の変更を含む種々の実施形態を最適に利用できる。

Claims (100)

  1. 接触感知表面及びディスプレイを備えるアクセシブル電子デバイスにおいて、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する工程であって、現在のフォーカスは第1のユーザインタフェース要素上にある、工程と、
    第2のユーザインタフェース要素に対応する前記接触感知表面上の位置に接触することとは無関係な第1の指ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第1の指ジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記第1のユーザインタフェース要素から、前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと前記現在のフォーカスを変更し、かつ前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする方法。
  2. 前記ディスプレイはタッチスクリーンディスプレイであり、前記接触感知表面は前記ディスプレイ上にあることを特徴とする、請求項1に記載の方法。
  3. 前記第1の指ジェスチャは、前記第2のユーザインタフェース要素に対応する前記接触感知表面上の前記位置に接触しないことを特徴とする、請求項1に記載の方法。
  4. 起動ジェスチャの選択を検出することと、
    前記起動ジェスチャの選択を検出することに応答して、前記現在のフォーカスに対応するユーザインタフェース要素と関連付けられた動作を実行することと、
    を含むことを特徴とする、請求項1に記載の方法。
  5. 前記アクセシビリティ情報は、前記第2のユーザインタフェース要素に対応する発音されるテキストとして出力された1つ以上の単語を含むことを特徴とする、請求項1に記載の方法。
  6. 前記第2のユーザインタフェース要素に対応する前記発音されるテキストは、前記第2のユーザインタフェース要素に対するユーザオプションを含むことを特徴とする、請求項5に記載の方法。
  7. 前記アクセシビリティ情報はテキストアクセシビリティ情報を含むことを特徴とする、請求項1に記載の方法。
  8. 前記アクセシビリティ情報は、前記現在のフォーカスが前記第1のユーザインタフェース要素から前記第2のユーザインタフェース要素に移動したことを示す境界ヒット音を含むことを特徴とする、請求項1に記載の方法。
  9. 第3のユーザインタフェース要素に対応する前記接触感知表面上の位置に接触することとは無関係であり、かつ前記第1の指ジェスチャに実質的に類似している第2の指ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第2の指ジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素から、前記複数のユーザインタフェース要素のうちの前記第3のユーザインタフェース要素へと前記現在のフォーカスを変更し、かつ前記第3のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする、請求項1に記載の方法。
  10. 前記第3のユーザインタフェース要素が前記ディスプレイ上で前記第2のユーザインタフェース要素の上下いずれかにある場合、前記第3のユーザインタフェース要素と関連付けられた前記アクセシビリティ情報はラッピング音を含むことを特徴とする、請求項9に記載の方法。
  11. 前記複数のユーザインタフェース要素がスクロール可能なビューにある場合、前記複数のユーザインタフェース要素をスクロールすることを含むことを特徴とする、請求項10に記載の方法。
  12. 前記第2のユーザインタフェース要素に対応する前記接触感知表面上の前記位置に接触することとは無関係であり、かつ前記第1の指ジェスチャとは実質的に逆である第3の指ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第3の指ジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記第3のユーザインタフェース要素から、前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと前記現在のフォーカスを変更し、かつ前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする、請求項9に記載の方法。
  13. 前記第2のユーザインタフェース要素が第1の編集可能なテキストフィールドであると判定された場合に、前記第1の編集可能なテキストフィールド内の第1のカーソル位置にカーソルを配置し、かつ前記第1の編集可能なテキストフィールドと関連付けられたアクセシビリティ情報を出力する工程を含むことを特徴とする、請求項1に記載の方法。
  14. 前記第1の編集可能なテキストフィールドと関連付けられた前記アクセシビリティ情報は、前記第1の編集可能なテキストフィールドに対応する発音されるテキストとして出力される1つ以上の単語を含むことを特徴とする、請求項13に記載の方法。
  15. 前記第1の編集可能なテキストフィールドと関連付けられた前記アクセシビリティ情報は、前記第1の編集可能なテキストフィールドの第1の文字に対応する発音されるテキストとして出力されるテキスト文字を含むことを特徴とする、請求項13に記載の方法。
  16. 前記第1のジェスチャに対して実質的に垂直な方向への第4の指ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第4の指ジェスチャを検出したことに応答して、前記カーソルが前記第1の編集可能なテキストフィールドの末尾にない場合には、前記第1の編集可能なテキストフィールド内の第2のカーソル位置へと前記カーソルを前記第1の編集可能なテキストフィールド内で前向きに移動させ、かつ前記第1の編集可能なテキストフィールド内の前記第2のカーソル位置と関連付けられたアクセシビリティ情報を出力し、前記カーソルが前記第1の編集可能なテキストフィールドの末尾にある場合には、前記第1の編集可能なテキストフィールドの末尾に前記カーソルを保持し、かつ前記カーソルが前記第1の編集可能なテキストフィールドの末尾にあることを示すアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする、請求項13に記載の方法。
  17. 前記カーソルが前記第1の編集可能なテキストフィールド内にある場合に、前記第4のジェスチャとは実質的に逆方向への第5の指ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第5の指ジェスチャを検出したことに応答して、前記第1の編集可能なテキストフィールド内の第3のカーソル位置へと前記カーソルを前記第1の編集可能なテキストフィールド内で後ろ向きに移動させ、かつ前記第1の編集可能なテキストフィールド内の前記第3のカーソル位置と関連付けられたアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする、請求項16に記載の方法。
  18. 接触感知表面と、ディスプレイと、1以上のプロセッサと、メモリと、前記メモリに格納され、前記1以上のプロセッサにより実行されるように構成された1以上のプログラムと、を備えるアクセシブル電子デバイスであって、
    前記1以上のプログラムは、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する命令であって、現在のフォーカスは第1のユーザインタフェース要素上にある、命令と、
    第2のユーザインタフェース要素に対応する前記接触感知表面上の位置に接触することとは無関係な第1の指ジェスチャを、前記接触感知表面上で検出する命令と、
    前記第1の指ジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記第1のユーザインタフェース要素から、前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと前記現在のフォーカスを変更し、かつ前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する命令と、
    を含むことを特徴とするアクセシブル電子デバイス。
  19. 命令を格納したコンピュータ読み取り可能な記憶媒体であって、
    前記命令は、接触感知表面及びディスプレイを備えるアクセシブル電子デバイスによって実行される場合に、前記デバイスに、
    複数のユーザインタフェース要素を前記ディスプレイ上に表示させ、ここで現在のフォーカスは第1のユーザインタフェース要素上にあり、
    第2のユーザインタフェース要素に対応する前記接触感知表面上の位置に接触することとは無関係な第1の指ジェスチャを、前記接触感知表面上で検出させ、
    前記第1の指ジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記第1のユーザインタフェース要素から、前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素へと前記現在のフォーカスを変更させ、かつ前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力させる
    ことを特徴とする記憶媒体。
  20. 接触感知表面及びディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    前記ディスプレイ上に複数のユーザインタフェース要素を備え、現在のフォーカスが第1のユーザインタフェース要素上にあり、
    第2のユーザインタフェース要素に対応する前記接触感知表面上の場所に接触することとは無関係である前記接触感知表面上の第1の指ジェスチャを検出することに応答して、
    前記現在のフォーカスは、前記複数のユーザインタフェース要素のうちの前記第1のユーザインタフェース要素から前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素に変化し、
    前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報が出力されることを特徴とするグラフィカルユーザインタフェース。
  21. 接触感知表面と、
    ディスプレイと、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する手段であり、現在のフォーカスが第1のユーザインタフェース要素上にある手段と、
    第2のユーザインタフェース要素に対応する前記接触感知表面上の場所に接触することとは無関係である前記接触感知表面上の第1の指ジェスチャを検出する手段と、
    前記第1の指ジェスチャを検出することに応答して、
    前記複数のユーザインタフェース要素のうちの前記第1のユーザインタフェース要素から前記複数のユーザインタフェース要素のうちの前記第2のユーザインタフェース要素に前記現在のフォーカスを変更する手段と、
    前記第2のユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する手段と、
    を備えることを特徴とするアクセシブル電子デバイス。
  22. 接触感知表面及びディスプレイを備えた電子デバイスにおいて、
    複数の部分を有する文書の第1の部分を前記ディスプレイ上に表示することと、
    前記文書の前記第1の部分に対応する文書部分可聴表示を出力することと、
    前記接触感知表面上の第1の指ジェスチャを検出することと、
    前記第1の指ジェスチャを検出することに応答して、
    前記文書の前記第1の部分を表示するのを中止することと、
    前記文書の前記第1の部分に隣接する前記文書の第2の部分を前記ディスプレイ上に表示することと、
    前記文書の前記第2の部分に対応する文書部分可聴表示を出力することと、
    を備えることを特徴とするアクセシビリティ方法。
  23. 前記ディスプレイはタッチスクリーンディスプレイであり、前記接触感知表面は前記ディスプレイ上にあることを特徴とする、請求項22に記載の方法。
  24. 前記第1の指ジェスチャは、前記接触感知表面上の複数の同時指接触を含むことを特徴とする、請求項22に記載の方法。
  25. 前記文書部分可聴表示は、現在表示されている前記文書の部分に関するナビゲーション情報を提供する発音されるテキストとして出力される1つ以上の単語を含むことを特徴とする、請求項22に記載の方法。
  26. 前記文書の前記第2の部分を表示し続ける間に前記接触感知表面上の第2の指ジェスチャを検出することと、
    前記接触感知表面上の前記第2の指ジェスチャを検出することに応答して、
    前記文書の前記第2の部分を表示するのを中止することと、
    前記文書の前記第2の部分に隣接する前記文書の第3の部分を前記ディスプレイ上に表示することと、
    前記文書の前記第3の部分に対応する文書部分可聴表示を出力することと、
    を含むことを特徴とする、請求項22に記載の方法。
  27. 前記文書の前記第3の部分に対応する前記文書部分可聴表示は、前記文書の前記第3の部分に対応する発音されるテキストとして出力される1つ以上の単語を含むことを特徴とする、請求項26に記載の方法。
  28. 前記文書の前記第3の部分を表示する間に前記第2の指ジェスチャとは実質的逆の方向にある前記接触感知表面上の第3の指ジェスチャを検出することと、
    前記接触感知表面上の前記第3の指ジェスチャを検出することに応答して、
    前記文書の前記第3の部分を表示するのを中止することと、
    前記ディスプレイ上で前記文書の前記第2の部分を再表示することと、
    前記文書の前記第2の部分に対応する前記文書部分可聴表示を出力することと、
    を含むことを特徴とする、請求項26に記載の方法。
  29. 接触感知表面と、
    ディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    前記メモリに格納され且つ前記1つ以上のプロセッサにより実行されるように構成され、
    複数の部分を有する文書の第1の部分を前記ディスプレイ上に表示する命令と、
    前記文書の前記第1の部分に対応する文書部分可聴表示を出力する命令と、
    前記接触感知表面上の第1の指ジェスチャを検出する命令と、
    前記第1の指ジェスチャを検出することに応答して、
    前記文書の前記第1の部分を表示するのを中止する命令と、
    前記文書の前記第1の部分に隣接する前記文書の第2の部分を前記ディスプレイ上に表示する命令と、
    前記文書の前記第2の部分に対応する文書部分可聴表示を出力する命令とを含む1つ以上のプログラムと、
    を備えることを特徴とするアクセシブル電子デバイス。
  30. 接触感知表面及びディスプレイを備えたアクセシブル電子デバイスにより実行される場合に前記デバイスが、
    複数の部分を有する文書の第1の部分を前記ディスプレイ上に表示し、
    前記文書の前記第1の部分に対応する文書部分可聴表示を出力し、
    前記接触感知表面上の第1の指ジェスチャを検出し、
    前記第1の指ジェスチャを検出することに応答して、
    前記文書の前記第1の部分を表示するのを中止し、
    前記文書の前記第1の部分に隣接する前記文書の第2の部分を前記ディスプレイ上に表示し、
    前記文書の前記第2の部分に対応する文書部分可聴表示を出力する命令を格納しているコンピュータ読み取り可能な記憶媒体。
  31. 接触感知表面及びディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    複数の部分を有する文書の第1の部分を備え、
    前記接触感知表面上の第1の指ジェスチャを検出することに応答して、
    前記文書の前記第1の部分に隣接する前記文書の第2の部分が表示され、前記文書の前記表示された第1の部分を置換し、
    前記文書の前記第2の部分に対応する文書部分可聴表示が出力されることを特徴とするグラフィカルユーザインタフェース。
  32. 接触感知表面と、
    ディスプレイと、
    複数の部分を有する文書の第1の部分を前記ディスプレイ上に表示する手段と、
    前記文書の前記第1の部分に対応する文書部分可聴表示を出力する手段と、
    前記接触感知表面上の第1の指ジェスチャを検出する手段と、
    前記第1の指ジェスチャを検出することに応答して、
    前記文書の前記第1の部分を表示するのを中止する手段と、
    前記文書の前記第1の部分に隣接する前記文書の第2の部分を前記ディスプレイ上に表示する手段と、
    前記文書の前記第2の部分に対応する文書部分可聴表示を出力する手段と、
    を備えることを特徴とするアクセシブル電子デバイス。
  33. 接触感知表面及びディスプレイを備えるアクセシブル電子デバイスにおいて、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する工程と、
    指による第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出する工程と、
    前記指による前記第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定されている現在のナビゲート可能な単位型に従って、前記ディスプレイ上の前記複数のユーザインタフェース要素の間でナビゲートする工程と、
    前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の位置に接触することとは無関係である第1のユーザインタフェースナビゲーション設定ジェスチャを、前記接触感知表面上で検出する工程と、
    前記第1のユーザインタフェースナビゲーション設定ジェスチャを前記接触感知表面上で検出したことに応答して、前記現在のナビゲート可能な単位型を、前記第1のナビゲート可能な単位型から、前記複数のナビゲート可能な単位型から選択された第2のナビゲート可能な単位型へと変更し、かつ前記第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する工程と、
    前記現在のナビゲート可能な単位型を前記第1のナビゲート可能な単位型から前記第2のナビゲート可能な単位型へと変更した後、前記第1のユーザインタフェースナビゲーションジェスチャと実質的に同じである前記指による第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出する工程と、
    前記指による前記第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、前記第2のナビゲート可能な単位型に設定されている前記現在のナビゲート可能な単位型に従って、前記複数のユーザインタフェース要素の間でナビゲートする工程と、
    を含むことを特徴とする方法。
  34. 前記第1のユーザインタフェースナビゲーション設定ジェスチャは関連付けられた方向を有し、
    前記方法は、第2のユーザインタフェースナビゲーション設定ジェスチャを前記接触感知表面上で検出する工程を含み、
    前記第2のユーザインタフェースナビゲーション設定ジェスチャは、前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の位置に接触することとは無関係であり、
    前記第2のユーザインタフェースナビゲーション設定ジェスチャは、前記第1のユーザインタフェースナビゲーション設定ジェスチャの方向とは実質的に逆である関連付けられた方向を有し、
    前記方法は、前記第2のユーザインタフェースナビゲーション設定ジェスチャを検出したことに応答して、前記現在のナビゲート可能な単位型を前記第2のナビゲート可能な単位型から前記第1のナビゲート可能な単位型へと変更し、前記第1のナビゲート可能な単位型に関するアクセシビリティ情報を出力する工程を含む
    ことを特徴とする、請求項33に記載の方法。
  35. 前記複数のナビゲート可能な単位型は、文字、単語、文、行、段落、及びページのうち少なくとも1つを含むことを特徴とする、請求項33に記載の方法。
  36. 前記第2のナビゲート可能な単位型に関する前記アクセシビリティ情報は、「文字」、「単語」、「文」、「行」、「段落」及び「ページ」から構成されるグループから選択された発音される単語であることを特徴とする、請求項35に記載の方法。
  37. 前記ディスプレイはタッチスクリーンディスプレイであり、前記接触感知表面は前記ディスプレイ上にあることを特徴とする、請求項33に記載の方法。
  38. 前記第1のユーザインタフェースナビゲーション設定ジェスチャは、複数の指によるジェスチャであることを特徴とする、請求項33に記載の方法。
  39. 前記第1のユーザインタフェースナビゲーション設定ジェスチャは、2本指による回転ジェスチャであることを特徴とする、請求項33に記載の方法。
  40. 前記現在のナビゲート可能な単位型はコンテキストに依存し、
    現在のフォーカスは前記複数のユーザインタフェース要素のうちのユーザインタフェース要素にあり、
    前記方法は、前記複数のユーザインタフェース要素のうちの前記現在のフォーカスを有する前記ユーザインタフェース要素の種類に基づいて、前記現在のナビゲート可能な単位型を変更する工程を含む
    ことを特徴とする、請求項33に記載の方法。
  41. 前記現在のナビゲート可能な単位型はコンテキストに依存し、現在のフォーカスは前記複数のユーザインタフェース要素のうちのユーザインタフェース要素にあることを特徴とする、請求項33に記載の方法。
  42. 前記複数のユーザインタフェース要素のうちの前記現在のフォーカスを有する前記ユーザインタフェース要素の種類に基づいて、前記現在のナビゲート可能な単位型を変更する工程を含むことを特徴とする、請求項41に記載の方法。
  43. 接触感知表面と、ディスプレイと、1以上のプロセッサと、メモリと、前記メモリに格納され、前記1以上のプロセッサにより実行されるように構成された1以上のプログラムと、を備えるアクセシブル電子デバイスであって、
    前記1以上のプログラムは、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する命令と、
    指による第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出する命令と、
    前記指による前記第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定されている現在のナビゲート可能な単位型に従って、前記ディスプレイ上の前記複数のユーザインタフェース要素の間でナビゲートする命令と、
    前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の位置に接触することとは無関係である第1のユーザインタフェースナビゲーション設定ジェスチャを、前記接触感知表面上で検出する命令と、
    前記第1のユーザインタフェースナビゲーション設定ジェスチャを前記接触感知表面上で検出したことに応答して、前記現在のナビゲート可能な単位型を、前記第1のナビゲート可能な単位型から、前記複数のナビゲート可能な単位型から選択された第2のナビゲート可能な単位型へと変更し、かつ前記第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する命令と、
    前記現在のナビゲート可能な単位型を前記第1のナビゲート可能な単位型から前記第2のナビゲート可能な単位型へと変更した後、前記第1のユーザインタフェースナビゲーションジェスチャと実質的に同じである前記指による第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出する命令と、
    前記指による前記第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、前記第2のナビゲート可能な単位型に設定されている前記現在のナビゲート可能な単位型に従って、前記ディスプレイ上の前記複数のユーザインタフェース要素の間でナビゲートする命令と、
    を含むことを特徴とするアクセシブル電子デバイス。
  44. 命令を格納したコンピュータ読み取り可能な記憶媒体であって、
    前記命令は、接触感知表面及びディスプレイを備えるアクセシブル電子デバイスによって実行される場合に、前記デバイスに、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示させ、
    指による第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出させ、
    前記指による前記第1のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定されている現在のナビゲート可能な単位型に従って、前記複数のユーザインタフェース要素の間でナビゲートさせ、
    前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の位置に接触することとは無関係である第1のユーザインタフェースナビゲーション設定ジェスチャを、前記接触感知表面上で検出させ、
    前記第1のユーザインタフェースナビゲーション設定ジェスチャを前記接触感知表面上で検出したことに応答して、前記現在のナビゲート可能な単位型を、前記第1のナビゲート可能な単位型から、前記複数のナビゲート可能な単位型から選択された第2のナビゲート可能な単位型へと変更させ、かつ前記第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力させ、
    前記現在のナビゲート可能な単位型を前記第1のナビゲート可能な単位型から前記第2のナビゲート可能な単位型へと変更した後、前記第1のユーザインタフェースナビゲーションジェスチャと実質的に同じである前記指による第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出させ、
    前記指による前記第2のユーザインタフェースナビゲーションジェスチャを前記接触感知表面上で検出したことに応答して、前記第2のナビゲート可能な単位型に設定されている前記現在のナビゲート可能な単位型に従って、前記複数のユーザインタフェース要素の間でナビゲートさせる、
    ことを特徴とする記憶媒体。
  45. 接触感知表面及びディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    前記ディスプレイ上に複数のユーザインタフェース要素を備え、
    前記接触感知表面上の指による第1ユーザインタフェースナビゲーションジェスチャを検出することに応答して、前記複数のユーザインタフェース要素におけるナビゲーションは、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従ってナビゲートし、
    前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の場所に接触することとは無関係である前記接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、
    前記現在のナビゲート可能な単位型は、前記複数のナビゲート可能な単位型から選択された前記第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変化し、
    前記第2のナビゲート可能な単位型に関するアクセシビリティ情報が出力され、
    前記現在のナビゲート可能な単位型を前記第1のナビゲート可能な単位型から前記第2のナビゲート可能な単位型に変更した後、前記第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である前記接触感知表面上の前記指による第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、前記複数のユーザインタフェース要素におけるナビゲーションは、前記第2のナビゲート可能な単位型に設定される前記現在のナビゲート可能な単位型に従ってナビゲートすることを特徴とするグラフィカルユーザインタフェース。
  46. 接触感知表面と、
    ディスプレイと、
    前記ディスプレイ上に複数のユーザインタフェース要素を表示する手段と、
    前記接触感知表面上の指による第1の指ジェスチャを検出する手段と、
    前記接触感知表面上の前記指による前記第1の指ジェスチャを検出することに応答して、複数のナビゲート可能な単位型から選択された第1のナビゲート可能な単位型に設定される現在のナビゲート可能な単位型に従って前記複数のユーザインタフェース要素においてナビゲートする手段と、
    前記複数のユーザインタフェース要素のうちのいずれかに対応する前記接触感知表面上の場所に接触することとは無関係である前記接触感知表面上の第1のユーザインタフェースナビゲーション設定ジェスチャを検出する手段と、
    前記接触感知表面上の前記第1のユーザインタフェースナビゲーション設定ジェスチャを検出することに応答して、
    前記現在のナビゲート可能な単位型を前記複数のナビゲート可能な単位型から選択された前記第1のナビゲート可能な単位型から第2のナビゲート可能な単位型に変更する手段と、
    前記第2のナビゲート可能な単位型に関するアクセシビリティ情報を出力する手段と、
    前記現在のナビゲート可能な単位型を前記第1のナビゲート可能な単位型から前記第2のナビゲート可能な単位型に変更した後、前記第1のユーザインタフェースナビゲーションジェスチャとほぼ同一である前記接触感知表面上の前記指による第2のユーザインタフェースナビゲーションジェスチャを検出する手段と、
    前記接触感知表面上の前記指による前記第2のユーザインタフェースナビゲーションジェスチャを検出することに応答して、前記第2のナビゲート可能な単位型に設定される前記現在のナビゲート可能な単位型に従って前記複数のユーザインタフェース要素においてナビゲートする手段と、
    を備えることを特徴とするアクセシブル電子デバイス。
  47. 接触感知表面及びディスプレイを備えるアクセシブル電子デバイスにおいて、
    少なくとも前記ディスプレイの第1の部分を前記接触感知表面にマッピングする工程と、
    前記ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する工程と、
    前記複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する工程と、
    前記ユーザインタフェースコンテナ選択イベントを検出したことに応答して、前記ディスプレイの前記第1の部分を前記接触感知表面にマッピングすることをやめ、前記第1のユーザインタフェースコンテナを前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングする工程と、
    を含むことを特徴とする方法。
  48. 前記ユーザインタフェースコンテナ選択イベントを検出したことに応答して、前記第1のユーザインタフェースコンテナと関連付けられたアクセシビリティ情報を出力する工程を含むことを特徴とする、請求項47に記載の方法。
  49. 前記ユーザインタフェースコンテナ選択イベントを検出することに応答して前記第1のユーザインタフェースコンテナを視覚的に強調表示することを含むことを特徴とする、請求項47に記載の方法。
  50. 前記第1のユーザインタフェースコンテナを選択解除するユーザインタフェースコンテナナビゲーションイベントを検出する工程と、
    前記ユーザインタフェースコンテナナビゲーションイベントを検出したことに応答して、前記第1のユーザインタフェースコンテナを前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングすることをやめ、前記ディスプレイの前記第1の部分を前記接触感知表面上に再マッピングする工程と、
    を含むことを特徴とする、請求項47に記載の方法。
  51. 前記第1のユーザインタフェースコンテナは複数のユーザインタフェース要素を含むことを特徴とする、請求項47に記載の方法。
  52. 前記第1のユーザインタフェースコンテナが前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングされている間に、前記複数のユーザインタフェース要素のうちの少なくとも1つのユーザインタフェース要素がマッピングされている前記接触感知表面上の領域に接触する第1のユーザインタフェース要素ナビゲーションジェスチャを前記接触感知表面上で検出する工程と、
    前記第1のユーザインタフェース要素ナビゲーションジェスチャを検出したことに応答して、前記複数のユーザインタフェース要素のうちの前記少なくとも1つのユーザインタフェース要素と関連付けられたアクセシビリティ情報を出力する工程と、
    を含むことを特徴とする、請求項51に記載の方法。
  53. 前記複数のユーザインタフェース要素のうちのいくつかのユーザインタフェース要素は、前記第1のユーザインタフェースコンテナ内で実質的に一方向に整列されていることを特徴とする、請求項51に記載の方法。
  54. 前記方法は、前記第1のユーザインタフェースコンテナが前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングされている間に、第2のユーザインタフェース要素ナビゲーションジェスチャを前記接触感知表面上で検出する工程を含み、
    前記第2のユーザインタフェース要素ナビゲーションジェスチャを検出する工程は、
    指接触を検出する工程と、
    前記指接触の実質的に一方向への移動を検出する工程とを含み、
    前記方法は、前記指接触の実質的に一方向への前記移動を検出したことに応答して、前記指接触の前記移動に従って前記第1のユーザインタフェースコンテナ内の現在のフォーカスを移動させる工程を含み、
    前記現在のフォーカスの位置は、前記いくつかのユーザインタフェース要素と整列された第1の軸内に実質的に限定される
    ことを特徴とする、請求項53に記載の方法。
  55. 前記一方向からほぼ逸れる前記指接触の移動を検出することと、
    前記一方向からほぼ逸れる前記指接触の移動を検出することに応答して、前記整列された第1の軸内のユーザインタフェース要素から前記整列された第1の軸に沿う前記複数のユーザインタフェース要素のうちの1つ以外の前記第1のユーザインタフェースコンテナのユーザインタフェース要素に前記現在のフォーカスを移動させることと、
    を含むことを特徴とする、請求項54に記載の方法。
  56. 前記複数のユーザインタフェースコンテナは、ユーザインタフェースコンテナの階層を含むことを特徴とする、請求項47に記載の方法。
  57. 前記第1のユーザインタフェースコンテナが前記接触感知表面とほぼ同一の空間を有するように比例してマッピングされる間、前記複数のユーザインタフェースコンテナのうちの第2のユーザインタフェースコンテナを選択する別のユーザインタフェースコンテナ選択イベントを検出することと、
    前記別のユーザインタフェースコンテナ選択イベントを検出することに応答して、
    前記第1のユーザインタフェースコンテナを前記接触感知表面とほぼ同一の空間を有するように比例してマッピングするのを中止することと、
    前記第2のユーザインタフェースコンテナを前記接触感知表面とほぼ同一の空間を有するように比例してマッピングすることとを更に備え、
    前記第2のユーザインタフェースコンテナは、前記第1のユーザインタフェースコンテナの真下のユーザインタフェースコンテナの前記階層のレベルであることを特徴とする、請求項56に記載の方法。
  58. 前記ユーザインタフェースコンテナ選択イベントを検出することに応答してユーザインタフェースコンテナの前記階層を下に移動することを含むことを特徴とする、請求項56に記載の方法。
  59. 前記ユーザインタフェースコンテナ選択イベントは複数の指のジェスチャであることを特徴とする、請求項58に記載の方法。
  60. 前記ユーザインタフェースコンテナ選択イベントは複数の指の非ピンチジェスチャであることを特徴とする、請求項58に記載の方法。
  61. 前記ユーザインタフェースコンテナ選択イベントは複数の指のスワイプジェスチャであることを特徴とする、請求項58に記載の方法。
  62. ユーザインタフェースコンテナ選択解除イベントを検出することに応答してユーザインタフェースコンテナの前記階層を上に移動することを含むことを特徴とする、請求項56に記載の方法。
  63. 前記ユーザインタフェースコンテナ選択解除イベントは複数の指のジェスチャであることを特徴とする、請求項61に記載の方法。
  64. 前記ユーザインタフェースコンテナ選択イベントは複数の指のピンチジェスチャであることを特徴とする、請求項61に記載の方法。
  65. 前記ユーザインタフェースコンテナ選択イベントは複数の指のスワイプジェスチャであることを特徴とする、請求項61に記載の方法。
  66. 接触感知表面と、ディスプレイと、1以上のプロセッサと、メモリと、前記メモリに格納され、前記1以上のプロセッサにより実行されるように構成された1以上のプログラムと、を備えるアクセシブル電子デバイスであって、
    前記1以上のプログラムは、
    少なくとも前記ディスプレイの第1の部分を前記接触感知表面にマッピングする命令と、
    前記ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する命令と、
    前記複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する命令と、
    前記ユーザインタフェースコンテナ選択イベントを検出したことに応答して、前記ディスプレイの前記第1の部分を前記接触感知表面にマッピングすることをやめ、前記第1のユーザインタフェースコンテナを前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングする命令と、
    を含むことを特徴とするアクセシブル電子デバイス。
  67. 命令を格納したコンピュータ読み取り可能な記憶媒体であって、
    前記命令は、接触感知表面及びディスプレイを備えるアクセシブル電子デバイスによって実行される場合に、前記デバイスに、
    少なくとも前記ディスプレイの第1の部分を前記接触感知表面にマッピングさせ、
    前記ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示させ、
    前記複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出させ、
    前記ユーザインタフェースコンテナ選択イベントを検出したことに応答して、前記ディスプレイの前記第1の部分を前記接触感知表面にマッピングすることをやめさせ、前記第1のユーザインタフェースコンテナを前記接触感知表面と実質的に同一の広がりを有するように比例してマッピングさせる
    ことを特徴とする記憶媒体。
  68. 接触感知表面及びディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    前記ディスプレイ上に複数のユーザインタフェースコンテナを備え、
    前記ディスプレイの少なくとも第1の部分は前記接触感知表面にマッピングされ、
    前記複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出することに応答して、
    前記ディスプレイの前記第1の部分を前記接触感知表面にマッピングするのを中止し、
    前記第1のユーザインタフェースコンテナを前記接触感知表面とほぼ同一の空間を有するように比例してマッピングすることを特徴とするグラフィカルユーザインタフェース。
  69. 接触感知表面と、
    ディスプレイと、
    前記ディスプレイの少なくとも第1の部分を前記接触感知表面にマッピングする手段と、
    前記ディスプレイ上に複数のユーザインタフェースコンテナを同時に表示する手段と、
    前記複数のユーザインタフェースコンテナのうちの第1のユーザインタフェースコンテナを選択するユーザインタフェースコンテナ選択イベントを検出する手段と、
    前記ユーザインタフェースコンテナ選択イベントを検出することに応答して、
    前記ディスプレイの前記第1の部分を前記接触感知表面にマッピングするのを中止する手段と、
    前記第1のユーザインタフェースコンテナを前記接触感知表面とほぼ同一の空間を有するように比例してマッピングする手段と、
    を備えることを特徴とするアクセシブル電子デバイス。
  70. 中心を有する接触感知ディスプレイを備えた電子デバイスにおいて、
    前記タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示することと、
    前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャを前記タッチスクリーンディスプレイ上で検出することと、
    前記同時に複数の指の接触に対するバウンディングボックスを判定することと、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大することとを備え、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とするアクセシビリティ方法。
  71. 前記第1の倍率はデフォルトの拡大されていないビューに対応することを特徴とする、請求項70に記載の方法。
  72. 前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位される距離が増加する時に増加する量だけ前記バウンディングボックスの重心から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とする、請求項70に記載の方法。
  73. 前記第1の複数の指のジェスチャは3本指のジェスチャであることを特徴とする、請求項70に記載の方法。
  74. 前記第1の複数の指のジェスチャは3本指のダブルタップジェスチャであることを特徴とする、請求項70に記載の方法。
  75. 前記バウンディングボックスは矩形のバウンディングボックスであることを特徴とする、請求項70に記載の方法。
  76. 前記バウンディングボックスの前記点の周囲の前記ユーザインタフェースの前記コンテンツを拡大することは、前記バウンディングボックスの前記点の周囲のズーミング動画を表示することを含むことを特徴とする、請求項70に記載の方法。
  77. 前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの前記対応する縁に向けて変位される前記距離に比例する量だけ前記バウンディングボックスの前記デフォルト位置から前記バウンディングボックスの前記それぞれの縁に向けて変位されることを特徴とする、請求項70に記載の方法。
  78. 前記バウンディングボックスの前記それぞれの縁が前記タッチスクリーンディスプレイの対応する縁に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスの前記デフォルト位置から前記バウンディングボックスの前記それぞれの縁に変位されることを特徴とする、請求項70に記載の方法。
  79. 前記タッチスクリーンディスプレイ上に前記第2の倍率で前記ユーザインタフェースの前記コンテンツを表示する間、
    前記タッチスクリーンディスプレイ上で第2の複数の指のジェスチャを検出することと、
    前記タッチスクリーンディスプレイ上で前記第2の複数の指のジェスチャを検出することに応答して、前記ユーザインタフェースの前記コンテンツを前記第1の倍率に縮小することと、
    を備えることを特徴とする、請求項70に記載の方法。
  80. 前記第2の複数の指のジェスチャは3本指のジェスチャであることを特徴とする、請求項79に記載の方法。
  81. 前記第2の複数の指のジェスチャは3本指のダブルタップジェスチャであることを特徴とする、請求項79に記載の方法。
  82. 前記第2の複数の指のジェスチャは、前記第1の複数の指のジェスチャとほぼ同一であることを特徴とする、請求項79に記載の方法。
  83. 前記ユーザインタフェースの前記コンテンツを縮小することは、ズーミングアウト動画を表示することを含むことを特徴とする、請求項79に記載の方法。
  84. 中心を有するタッチスクリーンディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    前記タッチスクリーンディスプレイ上に第1の倍率で表示されたコンテンツを備え、
    第1の複数の指のジェスチャは、前記タッチスクリーンディスプレイ上で検出され、
    前記第1の複数の指のジェスチャを検出することは、前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含み、
    前記同時に複数の指の接触に対するバウンディングボックスが判定され、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツは、前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大され、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とするグラフィカルユーザインタフェース。
  85. 中心を有するタッチスクリーンディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    前記メモリに格納され且つ前記1つ以上のプロセッサにより実行されるように構成され、
    前記タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する命令と、
    前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャを前記タッチスクリーンディスプレイ上で検出する命令と、
    前記同時に複数の指の接触に対するバウンディングボックスを判定する命令と、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大する命令とを含む1つ以上のプログラムとを備え、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とするアクセシブル電子デバイス。
  86. 中心を有するタッチスクリーンディスプレイを備えたアクセシブル電子デバイスにより実行される場合に前記デバイスが、
    前記タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示し、
    前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャを前記タッチスクリーンディスプレイ上で検出し、
    前記同時に複数の指の接触に対するバウンディングボックスを判定し、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大する命令を格納しているコンピュータ読み取り可能な記憶媒体であって、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とするコンピュータ読み取り可能な記憶媒体。
  87. 中心を有するタッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する手段と、
    前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャを前記タッチスクリーンディスプレイ上で検出する手段と、
    前記同時に複数の指の接触に対するバウンディングボックスを判定する手段と、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大する手段とを備え、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とするアクセシブル電子デバイス。
  88. 中心を有するタッチスクリーンディスプレイを備えたアクセシブル電子デバイスで使用される情報処理装置であって、
    前記タッチスクリーンディスプレイ上に第1の倍率でユーザインタフェースのコンテンツを表示する手段と、
    前記タッチスクリーンディスプレイ上で同時に複数の指の接触を検出することを含む第1の複数の指のジェスチャを前記タッチスクリーンディスプレイ上で検出する手段と、
    前記同時に複数の指の接触に対するバウンディングボックスを判定する手段と、
    前記タッチスクリーンディスプレイ上で前記第1の複数の指のジェスチャを検出することに応答して、前記バウンディングボックス内の点の周囲の前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上で前記第1の倍率より大きい第2の倍率に拡大する手段とを備え、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心に配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックス内のデフォルト位置にあり、
    前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から離れて配置される場合、前記バウンディングボックスの前記点は、前記バウンディングボックスが前記タッチスクリーンディスプレイの前記中心から前記タッチスクリーンディスプレイの対応する縁に向けて変位されるのに対応する量だけ前記バウンディングボックス内の前記デフォルト位置から前記バウンディングボックスのそれぞれの縁に向けて変位されることを特徴とする情報処理装置。
  89. タッチスクリーンディスプレイを備えた電子デバイスにおいて、
    前記タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示することと、
    前記タッチスクリーンディスプレイ上で複数の同時指接触を検出することと、
    前記タッチスクリーンディスプレイ上で前記複数の同時指接触の移動を検出することと、
    前記複数の同時指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールすることと、
    唯一の残る指接触を検出し続ける間に前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出することと、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合に前記ユーザインタフェースの前記コンテンツのスクローリングを中止することと、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールすることと、
    を備えることを特徴とするアクセシビリティ方法。
  90. 前記ユーザインタフェースの前記コンテンツを前記タッチスクリーンディスプレイ上に表示することは、前記ユーザインタフェースの前記コンテンツの拡大されたビューを表示することを含むことを特徴とする、請求項89に記載の方法。
  91. 前記複数の同時指接触は3つの同時指接触であることを特徴とする、請求項89に記載の方法。
  92. 前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出する前、
    少なくとも2つの残る指接触を検出し続ける間に前記複数の同時指接触のうちのいくつかの引き上げを検出することと、
    前記タッチスクリーンディスプレイ上で前記少なくとも2つの残る指接触の移動を検出することと、
    前記少なくとも2つの残る指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールすることと、
    を備えることを特徴とする、請求項89に記載の方法。
  93. 前記唯一の残る指接触が前記タッチスクリーンディスプレイの前記事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールすることは、
    前記唯一の残る指接触に最近接する前記タッチスクリーンの縁から離れた前記ユーザインタフェースの前記コンテンツをスクロールすることを含むことを特徴とする、請求項89に記載の方法。
  94. 前記唯一の残る指接触に最近接する前記タッチスクリーンの前記縁から離れた前記ユーザインタフェースの前記コンテンツを前記スクロールすることは、前記唯一の残る指接触に最近接する前記タッチスクリーンディスプレイの前記縁と前記唯一の残る指接触との間の距離に反比例するスクローリング速度を有することを特徴とする、請求項93に記載の方法。
  95. 前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出した後、
    前記タッチスクリーンディスプレイの前記事前定義された境界部分において前記唯一の残る指接触の引き上げを検出することと、
    前記タッチスクリーンディスプレイの前記事前定義された境界部分において前記唯一の残る指接触の引き上げを検出することに応答して、前記ユーザインタフェースの前記コンテンツをスクロールするのを中止することと、
    を備えることを特徴とする、請求項89に記載の方法。
  96. タッチスクリーンディスプレイを備えたアクセシブル電子デバイス上のグラフィカルユーザインタフェースであって、
    前記タッチスクリーン上に表示されたコンテンツを備え、
    複数の同時指接触は前記タッチスクリーンディスプレイ上で検出され、
    前記タッチスクリーンディスプレイ上の前記複数の同時指接触の移動が検出され、
    前記ユーザインタフェースの前記コンテンツは、前記複数の同時指接触の前記移動に従ってスクロールされ、
    前記複数の同時指接触のうちの1つ以外の全ての引き上げは、唯一の残る指接触を検出し続ける間に検出され、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合、前記ユーザインタフェースの前記コンテンツのスクローリングは中止され、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合、前記ユーザインタフェースの前記コンテンツはスクロールされることを特徴とするグラフィカルユーザインタフェース。
  97. タッチスクリーンディスプレイと、
    1つ以上のプロセッサと、
    メモリと、
    前記メモリに格納され且つ前記1つ以上のプロセッサにより実行されるように構成され、
    前記タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する命令と、
    前記タッチスクリーンディスプレイ上で複数の同時指接触を検出する命令と、
    前記タッチスクリーンディスプレイ上で前記複数の同時指接触の移動を検出する命令と、
    前記複数の同時指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールする命令と、
    唯一の残る指接触を検出し続ける間に前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出する命令と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合に前記ユーザインタフェースの前記コンテンツのスクローリングを中止する命令と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールする命令とを含む1つ以上のプログラムと、
    を備えることを特徴とするアクセシブル電子デバイス。
  98. タッチスクリーンディスプレイを備えたアクセシブル電子デバイスにより実行される場合に前記デバイスが、
    前記タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示し、
    前記タッチスクリーンディスプレイ上で複数の同時指接触を検出し、
    前記タッチスクリーンディスプレイ上で前記複数の同時指接触の移動を検出し、
    前記複数の同時指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールし、
    唯一の残る指接触を検出し続ける間に前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出し、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合に前記ユーザインタフェースの前記コンテンツのスクローリングを中止し、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールする命令を格納しているコンピュータ読み取り可能な記憶媒体。
  99. タッチスクリーンディスプレイと、
    前記タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する手段と、
    前記タッチスクリーンディスプレイ上で複数の同時指接触を検出する手段と、
    前記タッチスクリーンディスプレイ上で前記複数の同時指接触の移動を検出する手段と、
    前記複数の同時指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールする手段と、
    唯一の残る指接触を検出し続ける間に前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出する手段と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合に前記ユーザインタフェースの前記コンテンツのスクローリングを中止する手段と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールする手段と、
    を備えることを特徴とするアクセシブル電子デバイス。
  100. タッチスクリーンディスプレイを備えたアクセシブル電子デバイスで使用される情報処理装置であって、
    前記タッチスクリーンディスプレイ上にユーザインタフェースのコンテンツを表示する手段と、
    前記タッチスクリーンディスプレイ上で複数の同時指接触を検出することと、
    前記タッチスクリーンディスプレイ上で前記複数の同時指接触の移動を検出する手段と、
    前記複数の同時指接触の前記移動に従って前記ユーザインタフェースの前記コンテンツをスクロールする手段と、
    唯一の残る指接触を検出し続ける間に前記複数の同時指接触のうちの1つ以外の全ての引き上げを検出する手段と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された中心部分に配置される場合に前記ユーザインタフェースの前記コンテンツのスクローリングを中止する手段と、
    前記唯一の残る指接触が前記タッチスクリーンディスプレイの事前定義された境界部分に配置される場合に前記ユーザインタフェースの前記コンテンツをスクロールする手段と、
    を備えることを特徴とする情報処理装置。
JP2012024483A 2009-06-07 2012-02-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース Active JP5451789B2 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US18482509P 2009-06-07 2009-06-07
US61/184,825 2009-06-07
US12/565,746 2009-09-23
US12/565,745 2009-09-23
US12/565,746 US8681106B2 (en) 2009-06-07 2009-09-23 Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US12/565,744 US9009612B2 (en) 2009-06-07 2009-09-23 Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US12/565,744 2009-09-23
US12/565,745 US8493344B2 (en) 2009-06-07 2009-09-23 Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012513959A Division JP5812988B2 (ja) 2009-06-07 2010-05-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2012113730A true JP2012113730A (ja) 2012-06-14
JP5451789B2 JP5451789B2 (ja) 2014-03-26

Family

ID=43300405

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2012513959A Active JP5812988B2 (ja) 2009-06-07 2010-05-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース
JP2012024484A Active JP5714519B2 (ja) 2009-06-07 2012-02-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース
JP2012024483A Active JP5451789B2 (ja) 2009-06-07 2012-02-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2012513959A Active JP5812988B2 (ja) 2009-06-07 2010-05-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース
JP2012024484A Active JP5714519B2 (ja) 2009-06-07 2012-02-07 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース

Country Status (6)

Country Link
US (7) US9009612B2 (ja)
EP (3) EP2458493B1 (ja)
JP (3) JP5812988B2 (ja)
KR (5) KR101591450B1 (ja)
AU (1) AU2010259191B2 (ja)
WO (1) WO2010144201A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137750A (ja) * 2011-11-28 2013-07-11 Kyocera Corp 装置、方法、及びプログラム
JP2014021829A (ja) * 2012-07-20 2014-02-03 Canon Inc 情報処理装置及びその制御方法
JP2015026360A (ja) * 2013-06-20 2015-02-05 パナソニックIpマネジメント株式会社 情報処理装置
JP2018005763A (ja) * 2016-07-07 2018-01-11 本田技研工業株式会社 操作入力装置

Families Citing this family (377)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8074172B2 (en) 2007-01-05 2011-12-06 Apple Inc. Method, system, and graphical user interface for providing word recommendations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20090144667A1 (en) * 2007-11-30 2009-06-04 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
AU2010212148B2 (en) * 2009-02-06 2014-07-10 Bae Systems Plc Touch -screen vehicle remote control
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8836648B2 (en) 2009-05-27 2014-09-16 Microsoft Corporation Touch pull-in gesture
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8701029B2 (en) * 2009-06-24 2014-04-15 Red Hat Israel, Ltd. Presenting a modal dialog box using an invisible panel underneath
US20110061025A1 (en) * 2009-09-04 2011-03-10 Walline Erin K Auto Scroll In Combination With Multi Finger Input Device Gesture
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
EP2480957B1 (en) 2009-09-22 2017-08-09 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8677284B2 (en) * 2009-11-04 2014-03-18 Alpine Electronics, Inc. Method and apparatus for controlling and displaying contents in a user interface
US8442600B1 (en) * 2009-12-02 2013-05-14 Google Inc. Mobile electronic device wrapped in electronic display
US20110138284A1 (en) * 2009-12-03 2011-06-09 Microsoft Corporation Three-state touch input system
KR20110064334A (ko) * 2009-12-08 2011-06-15 삼성전자주식회사 휴대용 단말기에서 사용자 인터페이스 설정을 위한 장치 및 방법
US8386965B2 (en) * 2010-01-15 2013-02-26 Apple Inc. Techniques and systems for enhancing touch screen device accessibility through virtual containers and virtually enlarged boundaries
JP5636678B2 (ja) * 2010-01-19 2014-12-10 ソニー株式会社 表示制御装置、表示制御方法及び表示制御プログラム
US8539386B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
US8539385B2 (en) * 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
US8677268B2 (en) 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
KR20110104620A (ko) * 2010-03-17 2011-09-23 삼성전자주식회사 휴대용 단말기에서 문자 입력 방법 및 장치
US20110239149A1 (en) * 2010-03-24 2011-09-29 Microsoft Corporation Timeline control
US8957866B2 (en) * 2010-03-24 2015-02-17 Microsoft Corporation Multi-axis navigation
US9405404B2 (en) * 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
US20110257958A1 (en) * 2010-04-15 2011-10-20 Michael Rogler Kildevaeld Virtual smart phone
EP2561640A1 (en) * 2010-04-21 2013-02-27 ETH Zurich Authenticated key exchange using distance bounding protocol
US20110273379A1 (en) * 2010-05-05 2011-11-10 Google Inc. Directional pad on touchscreen
US20110289408A1 (en) * 2010-05-18 2011-11-24 Suchithra Narasimhalu Chitlur Menu path tracking and display of path steps
JP5533254B2 (ja) * 2010-05-24 2014-06-25 アイシン・エィ・ダブリュ株式会社 情報表示装置、情報表示方法及びプログラム
US9542091B2 (en) 2010-06-04 2017-01-10 Apple Inc. Device, method, and graphical user interface for navigating through a user interface using a dynamic object selection indicator
US8707195B2 (en) * 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
KR20110138925A (ko) * 2010-06-22 2011-12-28 삼성전자주식회사 디스플레이장치 및 그 제어방법
US20110316805A1 (en) * 2010-06-28 2011-12-29 Youji Yamada Electronic device
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
KR20120012115A (ko) * 2010-07-30 2012-02-09 삼성전자주식회사 유저 인터페이스 제공방법 및 이를 적용한 디스플레이 장치
US8452600B2 (en) 2010-08-18 2013-05-28 Apple Inc. Assisted reader
JP5614173B2 (ja) * 2010-08-25 2014-10-29 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8972467B2 (en) 2010-08-31 2015-03-03 Sovanta Ag Method for selecting a data set from a plurality of data sets by means of an input device
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
KR101718027B1 (ko) * 2010-09-09 2017-03-20 엘지전자 주식회사 이동 단말기 및 그의 메모 관리방법
EP3451123B8 (en) 2010-09-24 2020-06-17 BlackBerry Limited Method for conserving power on a portable electronic device and a portable electronic device configured for the same
US8903525B2 (en) * 2010-09-28 2014-12-02 Sony Corporation Sound processing device, sound data selecting method and sound data selecting program
US9612731B2 (en) * 2010-09-29 2017-04-04 Nec Corporation Information processing device, control method for the same and program
JP5782699B2 (ja) * 2010-10-15 2015-09-24 ソニー株式会社 情報処理装置、情報処理装置の入力制御方法及びプログラム
KR101726607B1 (ko) * 2010-10-19 2017-04-13 삼성전자주식회사 휴대 단말기의 화면 제어 방법 및 장치
US20120110517A1 (en) * 2010-10-29 2012-05-03 Honeywell International Inc. Method and apparatus for gesture recognition
KR101314262B1 (ko) * 2010-11-11 2013-10-14 (주) 에스엔아이솔라 시각 장애인에 의한 객체 조작이 가능한 터치스크린 장치 및 그 장치에서의 객체 조작 방법
US8797283B2 (en) * 2010-11-22 2014-08-05 Sony Computer Entertainment America Llc Method and apparatus for performing user-defined macros
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
KR101645685B1 (ko) * 2010-12-20 2016-08-04 애플 인크. 이벤트 인식
US20120159383A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Customization of an immersive environment
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US20120315009A1 (en) * 2011-01-03 2012-12-13 Curt Evans Text-synchronized media utilization and manipulation
US20130334300A1 (en) 2011-01-03 2013-12-19 Curt Evans Text-synchronized media utilization and manipulation based on an embedded barcode
US9830831B2 (en) * 2011-01-05 2017-11-28 Pathway Innovations And Technologies, Inc. Mobile handwriting recording instrument and group lecture delivery and response system using the same
US9465440B2 (en) * 2011-01-06 2016-10-11 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9015641B2 (en) 2011-01-06 2015-04-21 Blackberry Limited Electronic device and method of providing visual notification of a received communication
US9766718B2 (en) 2011-02-28 2017-09-19 Blackberry Limited Electronic device and method of displaying information in response to input
US9477311B2 (en) 2011-01-06 2016-10-25 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9471145B2 (en) 2011-01-06 2016-10-18 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US9430128B2 (en) * 2011-01-06 2016-08-30 Tivo, Inc. Method and apparatus for controls based on concurrent gestures
US9423878B2 (en) 2011-01-06 2016-08-23 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US10042546B2 (en) * 2011-01-07 2018-08-07 Qualcomm Incorporated Systems and methods to present multiple frames on a touch screen
US20120176321A1 (en) * 2011-01-10 2012-07-12 Einstruction Corporation Touch-Enabled Personal Mobile Whiteboard Tablet
US8825734B2 (en) * 2011-01-27 2014-09-02 Egain Corporation Personal web display and interaction experience system
CA2826390A1 (en) * 2011-02-08 2012-08-16 Haworth, Inc. Multimodal touchscreen interaction apparatuses, methods and systems
US20120218203A1 (en) * 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
KR101873787B1 (ko) 2011-02-10 2018-07-03 삼성전자주식회사 터치스크린 단말기에서 멀티 터치 입력 처리 방법 및 장치
US20140019904A1 (en) * 2011-02-15 2014-01-16 Exo U Inc. Method for providing data associated with an object displayed on a touch screen display
US9213421B2 (en) 2011-02-28 2015-12-15 Blackberry Limited Electronic device and method of displaying information in response to detecting a gesture
KR101842457B1 (ko) * 2011-03-09 2018-03-27 엘지전자 주식회사 이동 단말기 및 그의 텍스트 커서 운용방법
KR101852428B1 (ko) * 2011-03-09 2018-04-26 엘지전자 주식회사 이동 단말기 및 그의 3d객체 제어방법
EP2686759B1 (en) 2011-03-17 2019-11-06 Laubach, Kevin Touch enhanced interface
EP2686758B1 (en) 2011-03-17 2020-09-30 Laubach, Kevin Input device user interface enhancements
US20140173717A1 (en) * 2011-03-21 2014-06-19 Assa Abloy Ab System and method of secure data entry
US9582088B2 (en) * 2011-03-23 2017-02-28 Nanophoton Corporation Microscope
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9298287B2 (en) * 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9244984B2 (en) 2011-03-31 2016-01-26 Microsoft Technology Licensing, Llc Location based conversational understanding
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US9858343B2 (en) 2011-03-31 2018-01-02 Microsoft Technology Licensing Llc Personalization of queries, conversations, and searches
US20120260220A1 (en) * 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
US20120266079A1 (en) * 2011-04-18 2012-10-18 Mark Lee Usability of cross-device user interfaces
JP5858641B2 (ja) * 2011-05-10 2016-02-10 キヤノン株式会社 情報処理装置、情報処理装置と外部装置とを含むシステム、システムの制御方法、及びプログラム
US9454962B2 (en) 2011-05-12 2016-09-27 Microsoft Technology Licensing, Llc Sentence simplification for spoken language understanding
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
JP5485220B2 (ja) * 2011-05-13 2014-05-07 株式会社Nttドコモ 表示装置、ユーザインタフェース方法及びプログラム
US9391568B2 (en) * 2011-05-16 2016-07-12 Rosemount Inc. Process device with light change triggered display
JP2012243077A (ja) * 2011-05-19 2012-12-10 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US20140055400A1 (en) 2011-05-23 2014-02-27 Haworth, Inc. Digital workspace ergonomics apparatuses, methods and systems
US9465434B2 (en) 2011-05-23 2016-10-11 Haworth, Inc. Toolbar dynamics for digital whiteboard
CA2836813C (en) 2011-05-23 2020-10-27 Jeffrey Jon REUSCHEL Digital whiteboard collaboration apparatuses, methods and systems
US9471192B2 (en) 2011-05-23 2016-10-18 Haworth, Inc. Region dynamics for digital whiteboard
US20120304132A1 (en) 2011-05-27 2012-11-29 Chaitanya Dev Sareen Switching back to a previously-interacted-with application
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US20120304107A1 (en) * 2011-05-27 2012-11-29 Jennifer Nan Edge gesture
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US9032338B2 (en) 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US8751971B2 (en) * 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US9513799B2 (en) 2011-06-05 2016-12-06 Apple Inc. Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities
CH705069A1 (de) 2011-06-06 2012-12-14 Markus Cslovjecsek Cstool Gmbh Verfahren zum bewegungsabhängigen Navigieren in kontinuierlichen Datenströmen entlang visueller Strukturen.
US9204094B2 (en) * 2011-06-28 2015-12-01 Lifesize Communications, Inc. Adjusting volume of a videoconference using touch-based gestures
US9436301B2 (en) 2011-06-29 2016-09-06 Google Technology Holdings LLC Portable electronic device having interchangeable user interfaces and method thereof
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9195373B2 (en) * 2011-08-30 2015-11-24 Nook Digital, Llc System and method for navigation in an electronic document
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
JP5935267B2 (ja) * 2011-09-01 2016-06-15 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9047469B2 (en) * 2011-09-10 2015-06-02 Microsoft Technology Licensing, Llc Modes for applications
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
US20130063494A1 (en) 2011-09-12 2013-03-14 Microsoft Corporation Assistive reading interface
US9612670B2 (en) 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US8732616B2 (en) * 2011-09-22 2014-05-20 International Business Machines Corporation Mark-based electronic containment system and method
US9043411B2 (en) * 2011-09-29 2015-05-26 Microsoft Technology Licensing, Llc Inline message composing with visible list view
CN103947249B (zh) * 2011-09-30 2018-04-27 英特尔公司 通过多个无线网络同时地传送因特网业务的方法
JP5805601B2 (ja) * 2011-09-30 2015-11-04 京セラ株式会社 装置、方法、及びプログラム
USD686241S1 (en) * 2011-10-06 2013-07-16 Research In Motion Limited Display screen with icon
US20130106707A1 (en) * 2011-10-26 2013-05-02 Egalax_Empia Technology Inc. Method and device for gesture determination
US9268848B2 (en) * 2011-11-02 2016-02-23 Microsoft Technology Licensing, Llc Semantic navigation through object collections
US9594504B2 (en) 2011-11-08 2017-03-14 Microsoft Technology Licensing, Llc User interface indirect interaction
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
US9116611B2 (en) 2011-12-29 2015-08-25 Apple Inc. Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input
TWI493438B (zh) * 2012-01-09 2015-07-21 Amtran Technology Co Ltd 觸控方法
JP6103807B2 (ja) * 2012-01-10 2017-03-29 キヤノン株式会社 表示制御装置、その制御方法及びプログラム
US9619038B2 (en) 2012-01-23 2017-04-11 Blackberry Limited Electronic device and method of displaying a cover image and an application image from a low power condition
US9058168B2 (en) 2012-01-23 2015-06-16 Blackberry Limited Electronic device and method of controlling a display
JP5712942B2 (ja) * 2012-01-30 2015-05-07 コニカミノルタ株式会社 画像形成システム、遠隔操作装置、画像形成装置、プログラム
US9235317B2 (en) 2012-02-01 2016-01-12 Facebook, Inc. Summary and navigation of hierarchical levels
US9557876B2 (en) * 2012-02-01 2017-01-31 Facebook, Inc. Hierarchical user interface
US9645724B2 (en) 2012-02-01 2017-05-09 Facebook, Inc. Timeline based content organization
US9384711B2 (en) 2012-02-15 2016-07-05 Microsoft Technology Licensing, Llc Speculative render ahead and caching in multiple passes
US9128605B2 (en) 2012-02-16 2015-09-08 Microsoft Technology Licensing, Llc Thumbnail-image selection of applications
USD715819S1 (en) 2012-02-23 2014-10-21 Microsoft Corporation Display screen with graphical user interface
US9600169B2 (en) 2012-02-27 2017-03-21 Yahoo! Inc. Customizable gestures for mobile devices
US8935606B2 (en) 2012-02-29 2015-01-13 Ebay Inc. Systems and methods for providing a user interface with grid view
US9817568B2 (en) * 2012-02-29 2017-11-14 Blackberry Limited System and method for controlling an electronic device
US8971623B2 (en) 2012-03-06 2015-03-03 Apple Inc. Overlaid user interface tools for applying effects to image
US9131192B2 (en) 2012-03-06 2015-09-08 Apple Inc. Unified slider control for modifying multiple image properties
US9202433B2 (en) 2012-03-06 2015-12-01 Apple Inc. Multi operation slider
US10282055B2 (en) 2012-03-06 2019-05-07 Apple Inc. Ordered processing of edits for a media editing application
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US9373049B1 (en) 2012-04-05 2016-06-21 Amazon Technologies, Inc. Straight line gesture recognition and rendering
US9098186B1 (en) 2012-04-05 2015-08-04 Amazon Technologies, Inc. Straight line gesture recognition and rendering
US20130285927A1 (en) * 2012-04-30 2013-10-31 Research In Motion Limited Touchscreen keyboard with correction of previously input text
DE102012103845A1 (de) * 2012-05-02 2013-11-07 Kraussmaffei Technologies Gmbh Steuervorrichtung einer kunststoffverarbeitenden Maschine
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
EP3264252B1 (en) 2012-05-09 2019-11-27 Apple Inc. Device, method, and graphical user interface for performing an operation in accordance with a selected mode of operation
JP6002836B2 (ja) 2012-05-09 2016-10-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169853A1 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6182207B2 (ja) 2012-05-09 2017-08-16 アップル インコーポレイテッド ユーザインタフェースオブジェクトのアクティブ化状態を変更するためのフィードバックを提供するためのデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN106201316B (zh) 2012-05-09 2020-09-29 苹果公司 用于选择用户界面对象的设备、方法和图形用户界面
CN105260049B (zh) 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
US8977967B2 (en) 2012-05-11 2015-03-10 Microsoft Technology Licensing, Llc Rules for navigating to next content in a browser
EP2850610B1 (en) * 2012-05-18 2020-11-04 BlackBerry Limited Systems and methods to manage zooming
US9479549B2 (en) 2012-05-23 2016-10-25 Haworth, Inc. Collaboration system with whiteboard with federated display
US9479548B2 (en) 2012-05-23 2016-10-25 Haworth, Inc. Collaboration system with whiteboard access to global collaboration data
US9922309B2 (en) 2012-05-25 2018-03-20 Microsoft Technology Licensing, Llc Enhanced electronic communication draft management
US9230517B2 (en) 2012-05-31 2016-01-05 Microsoft Technology Licensing, Llc Virtual surface gutters
US9235925B2 (en) * 2012-05-31 2016-01-12 Microsoft Technology Licensing, Llc Virtual surface rendering
US9286122B2 (en) 2012-05-31 2016-03-15 Microsoft Technology Licensing, Llc Display techniques using virtual surface allocation
US9177533B2 (en) 2012-05-31 2015-11-03 Microsoft Technology Licensing, Llc Virtual surface compaction
US9164972B2 (en) 2012-06-07 2015-10-20 Microsoft Technology Licensing, Llc Managing objects in panorama display to navigate spreadsheet
CN102750093B (zh) * 2012-06-11 2016-03-30 惠州Tcl移动通信有限公司 一种屏幕解锁的方法、系统及触摸屏终端
US9041667B2 (en) * 2012-06-12 2015-05-26 Blackberry Limited Electronic device and method of control of displays
JP5994412B2 (ja) * 2012-06-13 2016-09-21 富士ゼロックス株式会社 画像表示装置、画像制御装置、画像形成装置およびプログラム
US9235335B2 (en) 2012-06-25 2016-01-12 Microsoft Technology Licensing, Llc Touch interactions with a drawing application
USD737278S1 (en) * 2012-06-28 2015-08-25 Samsung Electronics Co., Ltd. Portable electronic device with animated GUI
USD739412S1 (en) * 2012-06-28 2015-09-22 Samsung Electronics Co., Ltd. Portable electronic device with GUI
US20140006769A1 (en) * 2012-06-28 2014-01-02 Susan Chory Device optimization modes
USD738392S1 (en) * 2012-06-28 2015-09-08 Samsung Electronics Co., Ltd. Portable electronic device with animated GUI
USD739413S1 (en) * 2012-06-28 2015-09-22 Samsung Electronics Co., Ltd. Portable electronic device with GUI
US9268457B2 (en) 2012-07-13 2016-02-23 Google Inc. Touch-based fluid window management
US8826128B2 (en) * 2012-07-26 2014-09-02 Cerner Innovation, Inc. Multi-action rows with incremental gestures
US9141200B2 (en) * 2012-08-01 2015-09-22 Apple Inc. Device, method, and graphical user interface for entering characters
US10204507B2 (en) * 2012-08-24 2019-02-12 La Crosse Technology, Ltd. User-configurable weather warning apparatus
WO2014032237A1 (zh) * 2012-08-29 2014-03-06 华为终端有限公司 网页应用程序的管理方法和装置
US20140067366A1 (en) * 2012-08-30 2014-03-06 Google Inc. Techniques for selecting languages for automatic speech recognition
JP5594403B2 (ja) * 2012-09-13 2014-09-24 キヤノンマーケティングジャパン株式会社 携帯端末、携帯端末の制御方法、プログラム、および記録媒体
US9043733B2 (en) 2012-09-20 2015-05-26 Google Inc. Weighted N-finger scaling and scrolling
KR101943320B1 (ko) * 2012-09-21 2019-04-17 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20140047948A (ko) * 2012-10-15 2014-04-23 엘지전자 주식회사 영상표시장치, 및 그 동작방법
US10552030B2 (en) * 2012-10-15 2020-02-04 Kirusa, Inc. Multi-gesture media recording system
KR20140051719A (ko) * 2012-10-23 2014-05-02 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR102022050B1 (ko) * 2012-11-12 2019-09-19 삼성전자주식회사 패럴랙스 스크롤 기능을 가지는 모바일 장치 및 그 제어 방법
JP6040721B2 (ja) * 2012-11-16 2016-12-07 富士通株式会社 情報処理装置及びプログラム
USD748668S1 (en) * 2012-11-23 2016-02-02 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
KR20140070040A (ko) * 2012-11-30 2014-06-10 삼성전자주식회사 터치스크린 상에 표시되는 복수의 객체들을 관리하는 장치 및 방법
US20140164907A1 (en) * 2012-12-12 2014-06-12 Lg Electronics Inc. Mobile terminal and method of controlling the mobile terminal
US9448719B2 (en) * 2012-12-14 2016-09-20 Barnes & Noble College Booksellers, Llc Touch sensitive device with pinch-based expand/collapse function
US9377922B2 (en) * 2012-12-26 2016-06-28 Verizon Patent And Licensing Inc. Aiding people with impairments
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
KR102001332B1 (ko) 2012-12-29 2019-07-17 애플 인크. 콘텐츠를 스크롤할지 선택할지 결정하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
KR102000253B1 (ko) 2012-12-29 2019-07-16 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
WO2014105275A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US9146617B2 (en) * 2013-01-25 2015-09-29 Apple Inc. Activation of a screen reading program
US9298360B2 (en) 2013-01-25 2016-03-29 Apple Inc. Accessibility techinques for presentation of symbolic expressions
CN105190644B (zh) * 2013-02-01 2020-12-18 英特尔公司 用于使用触摸控制的基于图像的搜索的技术
US10304037B2 (en) 2013-02-04 2019-05-28 Haworth, Inc. Collaboration system including a spatial event map
US11861561B2 (en) 2013-02-04 2024-01-02 Haworth, Inc. Collaboration system including a spatial event map
JP2014153850A (ja) * 2013-02-07 2014-08-25 Toshiba Corp 電子機器、制御方法およびプログラム
US20140282279A1 (en) * 2013-03-14 2014-09-18 Cirque Corporation Input interaction on a touch sensor combining touch and hover actions
US9690476B2 (en) 2013-03-14 2017-06-27 Blackberry Limited Electronic device and method of displaying information in response to a gesture
US10655979B2 (en) 2013-06-08 2020-05-19 Apple Inc. User interface for displaying predicted destinations
US9303997B2 (en) 2013-03-15 2016-04-05 Apple Inc. Prediction engine
US9317813B2 (en) 2013-03-15 2016-04-19 Apple Inc. Mobile device with predictive routing engine
EP3101392B1 (en) * 2013-03-15 2021-12-15 Apple Inc. Mapping application with turn-by-turn navigation mode for output to vehicle display
US9159094B2 (en) 2013-03-15 2015-10-13 Panera, Llc Methods and apparatus for facilitation of orders of food items
EP2778615B1 (en) * 2013-03-15 2018-09-12 Apple Inc. Mapping Application with Several User Interfaces
US10229258B2 (en) 2013-03-27 2019-03-12 Samsung Electronics Co., Ltd. Method and device for providing security content
WO2014157893A1 (en) 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for providing a private page
WO2014157897A1 (en) * 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for switching tasks
US9996246B2 (en) 2013-03-27 2018-06-12 Samsung Electronics Co., Ltd. Device and method for displaying execution result of application
WO2014157886A1 (en) 2013-03-27 2014-10-02 Samsung Electronics Co., Ltd. Method and device for executing application
EP2979159A4 (en) * 2013-03-29 2016-11-09 Hewlett Packard Development Co USER INTERFACE WITH ADJUSTABLE TIME LINE
US9507495B2 (en) 2013-04-03 2016-11-29 Blackberry Limited Electronic device and method of displaying information in response to a gesture
KR101294558B1 (ko) 2013-04-15 2013-08-07 김민철 오타 수정 방법
KR102052971B1 (ko) * 2013-05-14 2020-01-08 엘지전자 주식회사 지문 스캔너를 포함하는 포터블 디바이스 및 그 제어 방법
CN103324435B (zh) 2013-05-24 2017-02-08 华为技术有限公司 分屏显示的方法、装置及其电子设备
USD748644S1 (en) * 2013-06-06 2016-02-02 Huawei Technologies Co., Ltd. Icon for display for on a display screen or portion thereof
US20140365459A1 (en) 2013-06-08 2014-12-11 Apple Inc. Harvesting Addresses
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
US9898187B2 (en) 2013-06-09 2018-02-20 Apple Inc. Managing real-time handwriting recognition
JP5739479B2 (ja) * 2013-06-12 2015-06-24 本田技研工業株式会社 プログラム及びアプリケーション制御方法
US9699019B2 (en) 2013-06-14 2017-07-04 Microsoft Technology Licensing, Llc Related content display associated with browsing
US9307007B2 (en) 2013-06-14 2016-04-05 Microsoft Technology Licensing, Llc Content pre-render and pre-fetch techniques
US9285964B2 (en) * 2013-06-18 2016-03-15 Google Inc. Automatically recovering and maintaining focus
US9377318B2 (en) * 2013-06-27 2016-06-28 Nokia Technologies Oy Method and apparatus for a navigation conveyance mode invocation input
KR101474467B1 (ko) * 2013-07-09 2014-12-19 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP2015022567A (ja) * 2013-07-19 2015-02-02 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
KR102163684B1 (ko) * 2013-07-19 2020-10-12 삼성전자주식회사 디바이스의 홈 스크린 구성 방법 및 장치
US10067628B2 (en) * 2013-08-14 2018-09-04 Google Llc Presenting open windows and tabs
US9729592B2 (en) * 2013-08-27 2017-08-08 Persais, Llc System and method for distributed virtual assistant platforms
US9594470B2 (en) * 2013-09-12 2017-03-14 Blackberry Limited Methods and software for facilitating the selection of multiple items at an electronic device
USD751082S1 (en) * 2013-09-13 2016-03-08 Airwatch Llc Display screen with a graphical user interface for an email application
US9645651B2 (en) 2013-09-24 2017-05-09 Microsoft Technology Licensing, Llc Presentation of a control interface on a touch-enabled device based on a motion or absence thereof
JP2015064680A (ja) 2013-09-24 2015-04-09 京セラ株式会社 電子機器、電子機器の制御方法、および電子機器の制御プログラム
JP5973405B2 (ja) * 2013-09-25 2016-08-23 京セラドキュメントソリューションズ株式会社 入力装置及び電子機器
CN104516559A (zh) * 2013-09-27 2015-04-15 华硕电脑股份有限公司 触控输入装置的多点触控方法
US10055103B1 (en) 2013-10-21 2018-08-21 Google Llc Text entry based on persisting actions
CA160904S (en) * 2013-11-01 2015-05-04 Sony Computer Entertainment Inc Display screen with user interface
KR101381101B1 (ko) * 2013-11-13 2014-04-02 주식회사 큐키 문자열 사이의 연관성 판단을 통한 오타 수정 방법
US8869062B1 (en) * 2013-11-27 2014-10-21 Freedom Scientific, Inc. Gesture-based screen-magnified touchscreen navigation
US20150153949A1 (en) * 2013-12-03 2015-06-04 Google Inc. Task selections associated with text inputs
KR20150067812A (ko) * 2013-12-09 2015-06-19 삼성전자주식회사 제어 단말과 연동하여 청각 기기를 관리하는 스테이션
CN104699393B (zh) * 2013-12-09 2018-02-27 联想(北京)有限公司 一种信息处理方法和电子设备
KR102210045B1 (ko) * 2013-12-12 2021-02-01 삼성전자 주식회사 전자장치의 입력 제어장치 및 방법
US9635108B2 (en) 2014-01-25 2017-04-25 Q Technologies Inc. Systems and methods for content sharing using uniquely generated idenifiers
US9538078B2 (en) 2014-03-02 2017-01-03 Google Inc. User interface for wide angle photography
USD738910S1 (en) * 2014-03-19 2015-09-15 Wargaming.Net Llp Display screen with animated graphical user interface
US9407674B2 (en) * 2014-03-25 2016-08-02 Shui Yu Chan Method and device for removing objects from a video feed in real-time
US20170024118A1 (en) * 2014-03-31 2017-01-26 Hewlett-Packard Development Company, L.P. Three-Part Gesture
KR102298602B1 (ko) 2014-04-04 2021-09-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 확장가능한 애플리케이션 표시
KR20160143784A (ko) 2014-04-10 2016-12-14 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 컴퓨팅 디바이스용 슬라이더 커버
BR112016024806A2 (pt) * 2014-04-24 2018-06-19 Idis Tech Ip Ltd aplicativo de mensagem privada e métodos associados.
US9898162B2 (en) 2014-05-30 2018-02-20 Apple Inc. Swiping functions for messaging applications
US9971500B2 (en) 2014-06-01 2018-05-15 Apple Inc. Displaying options, assigning notification, ignoring messages, and simultaneous user interface displays in a messaging application
JP6399834B2 (ja) * 2014-07-10 2018-10-03 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
US10007419B2 (en) 2014-07-17 2018-06-26 Facebook, Inc. Touch-based gesture recognition and application navigation
US9430142B2 (en) 2014-07-17 2016-08-30 Facebook, Inc. Touch-based gesture recognition and application navigation
FR3024912B1 (fr) * 2014-08-18 2018-09-28 Inside Vision Dispositif notamment pour afficheur destine a des malvoyants et afficheur comportant un tel dispositif
USD735754S1 (en) 2014-09-02 2015-08-04 Apple Inc. Display screen or portion thereof with graphical user interface
USD762693S1 (en) 2014-09-03 2016-08-02 Apple Inc. Display screen or portion thereof with graphical user interface
KR20160034776A (ko) * 2014-09-22 2016-03-30 삼성전자주식회사 디바이스 및 상기 디바이스의 제어 방법
EP3198561A4 (en) * 2014-09-24 2018-04-18 Intel Corporation Facial gesture driven animation communication system
US9501271B2 (en) 2014-10-09 2016-11-22 Facebook, Inc. Device, method, and graphical user interface for presenting and installing applications
US9977592B2 (en) * 2014-10-30 2018-05-22 Mediatek Inc. Touch rim control method and associated device
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
US9733734B2 (en) 2014-11-13 2017-08-15 Grayhill, Inc. Method for using a two-dimensional touchpad to manipulate a three-dimensional image
US20170371515A1 (en) 2014-11-19 2017-12-28 Honda Motor Co., Ltd. System and method for providing absolute and zone coordinate mapping with graphic animations
US9727231B2 (en) 2014-11-19 2017-08-08 Honda Motor Co., Ltd. System and method for providing absolute coordinate and zone mapping between a touchpad and a display screen
JP6735282B2 (ja) * 2015-02-02 2020-08-05 サーク・コーポレーション マルチ・フィンガ・ジェスチャにおける垂直二等分線を使用した、ディスプレイ上の多次元環境に示されるオブジェクトの動きの制御
JP6433811B2 (ja) * 2015-02-25 2018-12-05 京セラ株式会社 電子機器
USD773534S1 (en) * 2015-02-27 2016-12-06 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
US10466883B2 (en) * 2015-03-02 2019-11-05 Apple Inc. Screenreader user interface
USD765098S1 (en) 2015-03-06 2016-08-30 Apple Inc. Display screen or portion thereof with graphical user interface
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
USD771670S1 (en) 2015-03-09 2016-11-15 Apple Inc. Display screen or portion thereof with animated graphical user interface
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10088993B2 (en) * 2015-04-01 2018-10-02 Ebay Inc. User interface for controlling data navigation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
WO2016179401A1 (en) 2015-05-06 2016-11-10 Haworth, Inc. Virtual workspace viewport follow mode and location markers in collaboration systems
KR20160133781A (ko) * 2015-05-13 2016-11-23 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6314914B2 (ja) * 2015-06-04 2018-04-25 京セラドキュメントソリューションズ株式会社 画像形成装置、画像形成装置の操作画面制御方法
USD772269S1 (en) 2015-06-05 2016-11-22 Apple Inc. Display screen or portion thereof with graphical user interface
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10795558B2 (en) * 2015-06-07 2020-10-06 Apple Inc. Device, method, and graphical user interface for providing and interacting with a virtual drawing aid
US9961239B2 (en) 2015-06-07 2018-05-01 Apple Inc. Touch accommodation options
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10452231B2 (en) * 2015-06-26 2019-10-22 International Business Machines Corporation Usability improvements for visual interfaces
CN104932826B (zh) * 2015-06-26 2018-10-12 联想(北京)有限公司 一种信息处理方法和电子设备
US10394421B2 (en) 2015-06-26 2019-08-27 International Business Machines Corporation Screen reader improvements
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10642404B2 (en) * 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
USD777784S1 (en) * 2015-08-26 2017-01-31 Google Inc. Display screen with icon
US10623361B2 (en) * 2015-08-27 2020-04-14 Deborah A. Lambert Method, system and apparatus for organizing and interacting with email on mobile devices
CN105159682A (zh) * 2015-09-21 2015-12-16 联想(北京)有限公司 一种桌面对象的隐藏处理方法及电子设备
US20170083173A1 (en) * 2015-09-23 2017-03-23 Daniel Novak Systems and methods for interacting with computing devices via non-visual feedback
CN105353946A (zh) * 2015-10-10 2016-02-24 上海斐讯数据通信技术有限公司 一种输入密码后可快速进入应用程序的方法和移动终端
US10282052B2 (en) 2015-10-15 2019-05-07 At&T Intellectual Property I, L.P. Apparatus and method for presenting information associated with icons on a display screen
KR20170058051A (ko) 2015-11-18 2017-05-26 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 제어방법
US10255023B2 (en) 2016-02-12 2019-04-09 Haworth, Inc. Collaborative electronic whiteboard publication process
KR102490913B1 (ko) 2016-06-07 2023-01-20 삼성전자주식회사 디스플레이 장치 및 제어 방법
US10739972B2 (en) 2016-06-10 2020-08-11 Apple Inc. Device, method, and graphical user interface for managing electronic communications
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users
DK179329B1 (en) 2016-06-12 2018-05-07 Apple Inc Handwriting keyboard for monitors
US10078417B1 (en) * 2016-07-29 2018-09-18 Freedom Scientific, Inc. View port array of graphic user interface components
US10405034B1 (en) * 2016-11-14 2019-09-03 Cox Communications, Inc. Biometric access to personalized services
USD841036S1 (en) * 2017-03-29 2019-02-19 Facebook, Inc. Display panel of a programmed computer system with a graphical user interface
US10371544B2 (en) 2017-05-04 2019-08-06 Wearworks Vibrating haptic device for the blind
US10324537B2 (en) * 2017-05-31 2019-06-18 John Park Multi-language keyboard system
CN108986727A (zh) * 2017-06-02 2018-12-11 葛美迪影像科技股份有限公司 具有光源提示功能的显示器控制装置及其提示方法
US10521106B2 (en) 2017-06-27 2019-12-31 International Business Machines Corporation Smart element filtering method via gestures
US10805676B2 (en) 2017-07-10 2020-10-13 Sony Corporation Modifying display region for people with macular degeneration
US10650702B2 (en) 2017-07-10 2020-05-12 Sony Corporation Modifying display region for people with loss of peripheral vision
US10845954B2 (en) 2017-07-11 2020-11-24 Sony Corporation Presenting audio video display options as list or matrix
US20190018478A1 (en) * 2017-07-11 2019-01-17 Sony Corporation Sensing viewer direction of viewing to invoke accessibility menu in audio video device
JP6910898B2 (ja) * 2017-09-08 2021-07-28 株式会社東芝 電子機器及びコンテンツ表示プログラム
CN107728918A (zh) * 2017-09-27 2018-02-23 北京三快在线科技有限公司 浏览连续页面的方法、装置及电子设备
US11126325B2 (en) 2017-10-23 2021-09-21 Haworth, Inc. Virtual workspace including shared viewport markers in a collaboration system
US11934637B2 (en) 2017-10-23 2024-03-19 Haworth, Inc. Collaboration system including markers identifying multiple canvases in multiple shared virtual workspaces
KR102088215B1 (ko) 2018-01-22 2020-03-13 삼성전자주식회사 복수의 어플리케이션을 제어하기 위한 전자 장치
USD881207S1 (en) * 2018-05-07 2020-04-14 Google Llc Display screen with user interface
USD882615S1 (en) 2018-09-06 2020-04-28 Apple Inc. Electronic device with animated graphical user interface
CN109254707A (zh) * 2018-09-14 2019-01-22 Oppo广东移动通信有限公司 一种窗口调节的方法、移动终端及计算机可读存储介质
US11126732B2 (en) * 2018-11-14 2021-09-21 Paypal, Inc. Security of authentication data on mobile devices
US11573694B2 (en) 2019-02-25 2023-02-07 Haworth, Inc. Gesture based workflows in a collaboration system
JPWO2020194569A1 (ja) * 2019-03-27 2021-10-14 三菱電機株式会社 変換システム、変換装置及び変換方法
US10996761B2 (en) 2019-06-01 2021-05-04 Apple Inc. User interfaces for non-visual output of time
US11194467B2 (en) 2019-06-01 2021-12-07 Apple Inc. Keyboard management user interfaces
CN110414402B (zh) * 2019-07-22 2022-03-25 北京达佳互联信息技术有限公司 一种手势数据标注方法、装置、电子设备及存储介质
JP2021018777A (ja) * 2019-07-24 2021-02-15 キヤノン株式会社 電子機器
CN111104037B (zh) * 2019-12-09 2023-05-09 深圳市联谛信息无障碍有限责任公司 有助视觉障碍者浏览的方法及移动终端
US11036375B1 (en) * 2020-02-20 2021-06-15 Lenovo (Singapore) Pte. Ltd. Dynamic zoom based on media
US11212127B2 (en) 2020-05-07 2021-12-28 Haworth, Inc. Digital workspace sharing over one or more display clients and authorization protocols for collaboration systems
US11750672B2 (en) 2020-05-07 2023-09-05 Haworth, Inc. Digital workspace sharing over one or more display clients in proximity of a main client
USD974384S1 (en) * 2021-03-15 2023-01-03 Intrface Solutions Inc. Display screen or portion thereof with graphical user interface
USD985609S1 (en) * 2021-04-07 2023-05-09 Samsung Electronics Co., Ltd. Display screen or portion thereof with transitional graphical user interface
TWI825412B (zh) 2021-05-04 2023-12-11 瑞昱半導體股份有限公司 顯示系統
WO2023163699A1 (en) * 2022-02-23 2023-08-31 Hewlett-Packard Development Company, L.P. Display device settings sizes
US20240100417A1 (en) * 2022-09-26 2024-03-28 Sony Interactive Entertainment Inc. Outputting braille or subtitles using computer game controller

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09190436A (ja) * 1996-01-12 1997-07-22 Toshiba Corp 情報処理装置及び範囲指定方法
US5832528A (en) * 1994-08-29 1998-11-03 Microsoft Corporation Method and system for selecting text with a mouse input device in a computer system
JP2004151614A (ja) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> 文字データ修正装置、その方法及びそのプログラム、並びに、字幕の生成方法
JP2007095024A (ja) * 2005-09-05 2007-04-12 Kenta Nakamura 皮膚の触覚を伴う情報入力装置
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース

Family Cites Families (227)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4185283A (en) 1978-01-09 1980-01-22 Clark Lloyd D Multiple character word indication system employing sequential sensible indicia
US4444515A (en) 1981-05-11 1984-04-24 Clark Lloyd D Earring watch
US4859100A (en) 1984-07-09 1989-08-22 Minolta Camera Kabushiki Kaisha Keyboard to prevent erroneous simultaneous activation of keys
US4826405A (en) 1985-10-15 1989-05-02 Aeroquip Corporation Fan blade fabrication system
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
JPS63271516A (ja) 1987-04-28 1988-11-09 Nec Corp グラフイツクデイスプレイデ−タ処理方式
US5053758A (en) * 1988-02-01 1991-10-01 Sperry Marine Inc. Touchscreen control panel with sliding touch control
JPH01283621A (ja) 1988-05-11 1989-11-15 Mitsubishi Electric Corp 座標入力方式
JPH02244214A (ja) 1989-03-16 1990-09-28 Nec Corp 座標入力装置
US5252951A (en) 1989-04-28 1993-10-12 International Business Machines Corporation Graphical user interface with gesture recognition in a multiapplication environment
JP2811501B2 (ja) * 1990-08-30 1998-10-15 インターナショナル・ビジネス・マシーンズ・コーポレーション カーソル移動制御方法及び装置
US5119079A (en) * 1990-09-17 1992-06-02 Xerox Corporation Touch screen user interface with expanding touch locations for a reprographic machine
US5347295A (en) 1990-10-31 1994-09-13 Go Corporation Control of a computer through a position-sensed stylus
US5347589A (en) 1991-10-28 1994-09-13 Meeks Associates, Inc. System and method for displaying handwriting parameters for handwriting verification
US6046722A (en) * 1991-12-05 2000-04-04 International Business Machines Corporation Method and system for enabling blind or visually impaired computer users to graphically select displayed elements
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5513309A (en) 1993-01-05 1996-04-30 Apple Computer, Inc. Graphic editor user interface for a pointer-based computer system
US5502803A (en) * 1993-01-18 1996-03-26 Sharp Kabushiki Kaisha Information processing apparatus having a gesture editing function
DE4340679A1 (de) 1993-11-30 1995-06-01 Detecon Gmbh Sprachmodul für die akustische Wiedergabe von SAPI 3 Messages (Short Message Service) in einer Mobilstation (MS)
JPH07321889A (ja) 1994-05-25 1995-12-08 Hitachi Ltd 移動体通信端末装置
WO1996001453A1 (en) 1994-07-01 1996-01-18 Palm Computing, Inc. Multiple pen stroke character set and handwriting recognition system
US7181692B2 (en) 1994-07-22 2007-02-20 Siegel Steven H Method for the auditory navigation of text
US6442523B1 (en) 1994-07-22 2002-08-27 Steven H. Siegel Method for the auditory navigation of text
JP2760289B2 (ja) 1994-09-14 1998-05-28 日本電気株式会社 視覚障害者向けグラフィカル・ユーザ・インタフェース操作装置
KR0140176B1 (ko) * 1994-11-30 1998-07-15 김광호 반도체 메모리장치의 동작모드 제어장치 및 방법
US5618232A (en) 1995-03-23 1997-04-08 Martin; John R. Dual mode gaming device methods and systems
US6496182B1 (en) 1995-06-07 2002-12-17 Microsoft Corporation Method and system for providing touch-sensitive screens for the visually impaired
US5649133A (en) 1995-06-13 1997-07-15 Apple Computer, Inc. Method for collision avoidance for user interface for object with multiple handles
US6384743B1 (en) 1999-06-14 2002-05-07 Wisconsin Alumni Research Foundation Touch screen for the vision-impaired
US6624803B1 (en) * 1995-10-20 2003-09-23 Wisconsin Alumni Research Foundation Interface for electronic devices providing improved access for people with disabilities
JPH09146708A (ja) * 1995-11-09 1997-06-06 Internatl Business Mach Corp <Ibm> タッチパネルの駆動方法及びタッチ入力方法
IL116103A0 (en) 1995-11-23 1996-01-31 Wireless Links International L Mobile data terminals with text to speech capability
US5761485A (en) * 1995-12-01 1998-06-02 Munyan; Daniel E. Personal electronic book system
US6115482A (en) * 1996-02-13 2000-09-05 Ascent Technology, Inc. Voice-output reading system with gesture-based navigation
US6128007A (en) * 1996-07-29 2000-10-03 Motorola, Inc. Method and apparatus for multi-mode handwritten input and hand directed control of a computing device
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US6073036A (en) * 1997-04-28 2000-06-06 Nokia Mobile Phones Limited Mobile station with touch input having automatic symbol magnification function
JPH11161978A (ja) * 1997-10-31 1999-06-18 Sony Precision Eng Center Singapore Pte Ltd 光学ピックアップ及び/又は光ディスクのフォーカス特性測定装置、光学ピックアップ及び/又は光ディスクのフォーカス特性測定方法、光ディスクの記録及び/又は再生装置、並びに、光ディスクの記録及び/又は再生方法
US6075537A (en) 1997-11-20 2000-06-13 International Business Machines Corporation Ease of use interface to hotspots in hypertext document pages in network display stations
US6088027A (en) 1998-01-08 2000-07-11 Macromedia, Inc. Method and apparatus for screen object manipulation
KR100595917B1 (ko) 1998-01-26 2006-07-05 웨인 웨스터만 수동 입력 통합 방법 및 장치
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
WO1999040564A1 (fr) * 1998-02-03 1999-08-12 Seiko Epson Corporation Dispositif d'affichage de projection, procede d'affichage de projection et dispositif d'affichage d'image
US6211856B1 (en) * 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US6246983B1 (en) 1998-08-05 2001-06-12 Matsushita Electric Corporation Of America Text-to-speech e-mail reader with multi-modal reply processor
US7110945B2 (en) 1999-07-16 2006-09-19 Dreamations Llc Interactive book
US6396523B1 (en) 1999-07-29 2002-05-28 Interlink Electronics, Inc. Home entertainment device remote control
EP1094383A3 (en) * 1999-10-18 2005-11-02 Honeywell International, Inc. Methods and apparatus for cursor control
US6446041B1 (en) * 1999-10-27 2002-09-03 Microsoft Corporation Method and system for providing audio playback of a multi-source document
US20020046195A1 (en) * 1999-11-10 2002-04-18 Neopost Inc. Method and system for providing stamps by kiosk
JP2001147775A (ja) 1999-11-24 2001-05-29 Casio Comput Co Ltd 携帯端末装置及びそのプログラムを記憶した記憶媒体
US6707942B1 (en) 2000-03-01 2004-03-16 Palm Source, Inc. Method and apparatus for using pressure information for improved computer controlled handwriting recognition, data entry and user authentication
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US20010035884A1 (en) 2000-04-27 2001-11-01 Dan Kikinis Method and system for inputting time in a video environment using sliders
US6556222B1 (en) 2000-06-30 2003-04-29 International Business Machines Corporation Bezel based input mechanism and user interface for a smart watch
US7218226B2 (en) 2004-03-01 2007-05-15 Apple Inc. Acceleration-based theft detection system for portable electronic devices
US7688306B2 (en) 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US6788815B2 (en) 2000-11-10 2004-09-07 Microsoft Corporation System and method for accepting disparate types of user input
US6897853B2 (en) 2000-11-10 2005-05-24 Microsoft Corp. Highlevel active pen matrix
US6717600B2 (en) 2000-12-15 2004-04-06 International Business Machines Corporation Proximity selection of selectable item in a graphical user interface
US6677932B1 (en) 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US7030861B1 (en) * 2001-02-10 2006-04-18 Wayne Carl Westerman System and method for packing multi-touch gestures onto a hand
US6570557B1 (en) 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7062437B2 (en) * 2001-02-13 2006-06-13 International Business Machines Corporation Audio renderings for expressing non-audio nuances
JP3919210B2 (ja) * 2001-02-15 2007-05-23 アルパイン株式会社 音声入力案内方法及び装置
US7194411B2 (en) 2001-02-26 2007-03-20 Benjamin Slotznick Method of displaying web pages to enable user access to text information that the user has difficulty reading
US6834373B2 (en) * 2001-04-24 2004-12-21 International Business Machines Corporation System and method for non-visually presenting multi-part information pages using a combination of sonifications and tactile feedback
GB0110326D0 (en) 2001-04-27 2001-06-20 Ibm Method and apparatus for interoperation between legacy software and screen reader programs
US8416266B2 (en) 2001-05-03 2013-04-09 Noregin Assetts N.V., L.L.C. Interacting with detail-in-context presentations
US7020841B2 (en) 2001-06-07 2006-03-28 International Business Machines Corporation System and method for generating and presenting multi-modal applications from intent-based markup scripts
US20050134578A1 (en) 2001-07-13 2005-06-23 Universal Electronics Inc. System and methods for interacting with a control environment
US20030020754A1 (en) * 2001-07-26 2003-01-30 Berman Charles Leonard Method for improving accessibility of a computer display
US6690365B2 (en) * 2001-08-29 2004-02-10 Microsoft Corporation Automatic scrolling
EP1437147B1 (en) * 2001-09-25 2012-06-27 National Institute for Environmental Studies Method of preparing basement membrane
JP3951727B2 (ja) 2002-02-06 2007-08-01 松下電器産業株式会社 情報処理装置
US7075512B1 (en) * 2002-02-07 2006-07-11 Palmsource, Inc. Method and system for navigating a display screen for locating a desired item of information
JP2003256911A (ja) 2002-02-27 2003-09-12 Oki Electric Ind Co Ltd 自動サービス装置およびサービス選定方法
GB0206090D0 (en) 2002-03-15 2002-04-24 Koninkl Philips Electronics Nv Previewing documents on a computer system
JP2003316254A (ja) 2002-04-26 2003-11-07 Yazaki Corp 点字処理装置および該点字処理装置の動作制御を行なうための処理プログラムを記録したコンピュータ読み取り可能な記録媒体
US6889337B1 (en) 2002-06-03 2005-05-03 Oracle International Corporation Method and system for screen reader regression testing
US7020710B2 (en) 2002-06-21 2006-03-28 Thomson Licensing Streaming media delivery on multicast networks for network and server bandwidth minimization and enhanced personalization
CA2393887A1 (en) 2002-07-17 2004-01-17 Idelix Software Inc. Enhancements to user interface for detail-in-context data presentation
CA2406131A1 (en) 2002-09-30 2004-03-30 Idelix Software Inc. A graphical user interface using detail-in-context folding
KR100953806B1 (ko) 2002-09-30 2010-04-21 마이크로소프트 코포레이션 어플리케이션 및 사용자에게 공지되는 사용자 인터페이스엘리먼트들을 형성하기 위한 시스템 및 방법
US7187394B2 (en) 2002-10-04 2007-03-06 International Business Machines Corporation User friendly selection apparatus based on touch screens for visually impaired people
US6871149B2 (en) 2002-12-06 2005-03-22 New Transducers Limited Contact sensitive device
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
FR2850339B1 (fr) 2003-01-28 2006-02-24 Sevic System Ag Installation video portable comprenant une console electronique genre lecteur video ou console de jeu, et un ecran independant associe
GB0303888D0 (en) 2003-02-19 2003-03-26 Sec Dep Acting Through Ordnanc Image streaming
JP4454958B2 (ja) * 2003-04-30 2010-04-21 株式会社東芝 情報処理装置および機能選択方法
JP2006527439A (ja) * 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
JP2005010894A (ja) 2003-06-17 2005-01-13 Oki Electric Ind Co Ltd 情報処理装置、ソフトキーボード表示プログラム及びその方法
US20050001821A1 (en) 2003-07-02 2005-01-06 Low Tse How Option selector and electronic device including such an option selector
US7164410B2 (en) 2003-07-28 2007-01-16 Sig G. Kupka Manipulating an on-screen object using zones surrounding the object
US20050047629A1 (en) * 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
JP3734815B2 (ja) 2003-12-10 2006-01-11 任天堂株式会社 携帯ゲーム装置及びゲームプログラム
US7250938B2 (en) * 2004-01-06 2007-07-31 Lenovo (Singapore) Pte. Ltd. System and method for improved user input on personal computing devices
US7559036B1 (en) 2004-03-05 2009-07-07 Trading Technologies International, Inc. System and method for displaying a constant time selection context menu interface
US7176888B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
US8448083B1 (en) 2004-04-16 2013-05-21 Apple Inc. Gesture control of multimedia editing applications
KR100958490B1 (ko) 2004-07-30 2010-05-17 애플 인크. 사용자 인터페이스 방법, 미디어 항목들을 통해 스크롤하는방법, 디스플레이 및 터치 스크린을 갖는 사용자-조작되는전자 장치 상에서 수행되는 방법, 디스플레이 및 터치감지 입력 장치를 갖는 컴퓨팅 장치 상에서 수행되는 방법,컴퓨팅 시스템, 컴퓨팅 장치, 터치 감지 장치를 통해플로팅 컨트롤을 기동시키는 컴퓨터 구현 방법 및 컴퓨터구현 방법
US7637421B1 (en) 2004-09-20 2009-12-29 Diebold Self-Service Systems Division Of Diebold, Incorporated Automated banking machine audible user interface system and method
US8744852B1 (en) 2004-10-01 2014-06-03 Apple Inc. Spoken interfaces
EP1645944B1 (en) 2004-10-05 2012-08-15 Sony France S.A. A content-management interface
JP2006134090A (ja) 2004-11-05 2006-05-25 Matsushita Electric Ind Co Ltd 入力装置
KR100678945B1 (ko) * 2004-12-03 2007-02-07 삼성전자주식회사 터치패드 입력 정보 처리 장치 및 방법
US7489306B2 (en) 2004-12-22 2009-02-10 Microsoft Corporation Touch screen accuracy
US7669149B2 (en) 2004-12-30 2010-02-23 Sap Ag Matching user interface elements to screen reader functions
US20060150084A1 (en) 2004-12-30 2006-07-06 Josef Dietl Data format for representing user interface elements for a screen reader
US20060189278A1 (en) * 2005-02-24 2006-08-24 Research In Motion Limited System and method for making an electronic handheld device more accessible to a disabled person
US7631013B2 (en) 2005-04-06 2009-12-08 Sierra Interactive Systems, Inc. System and method for publishing, distributing, and reading electronic interactive books
CN101814005B (zh) * 2005-07-22 2013-02-27 运行移动系统公司 最适宜拇指的触摸屏用户界面的系统和方法
US7900158B2 (en) * 2005-08-04 2011-03-01 Microsoft Corporation Virtual magnifying glass with intuitive use enhancements
US20070152980A1 (en) 2006-01-05 2007-07-05 Kenneth Kocienda Touch Screen Keyboards for Portable Electronic Devices
WO2007046466A1 (ja) 2005-10-21 2007-04-26 Sanyo Electric Co., Ltd. 暗証番号等を入力する為の入力装置およびその入力装置を備えた携帯電話装置
US7402819B2 (en) * 2005-12-01 2008-07-22 Accuray Incorporated Respiration phantom for quality assurance
JP4163713B2 (ja) * 2005-12-07 2008-10-08 株式会社東芝 情報処理装置およびタッチパッド制御方法
US20070132789A1 (en) 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
US8060821B2 (en) 2005-12-09 2011-11-15 Apple Inc. Enhanced visual feedback of interactions with user interface
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
US7603621B2 (en) 2006-01-25 2009-10-13 Microsoft Corporation Computer interface for illiterate and near-illiterate users
KR100754674B1 (ko) 2006-03-10 2007-09-03 삼성전자주식회사 휴대 단말의 메뉴 선택 방법 및 장치
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
US20070247422A1 (en) * 2006-03-30 2007-10-25 Xuuk, Inc. Interaction techniques for flexible displays
US7792363B2 (en) * 2006-03-30 2010-09-07 Benjamin Perkins Foss Use of level detection while capturing and presenting text with optical character recognition
US9395905B2 (en) * 2006-04-05 2016-07-19 Synaptics Incorporated Graphical scroll wheel
US8077153B2 (en) 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US9063647B2 (en) 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
JP2007310496A (ja) * 2006-05-16 2007-11-29 Alps Electric Co Ltd タッチ操作入力装置
US20070268317A1 (en) * 2006-05-18 2007-11-22 Dan Banay User interface system and method for selectively displaying a portion of a display screen
US8411590B2 (en) * 2006-07-27 2013-04-02 Mobitrum Corporation Mesh network remote control device
US20080027726A1 (en) 2006-07-28 2008-01-31 Eric Louis Hansen Text to audio mapping, and animation of the text
US7772965B2 (en) * 2006-08-07 2010-08-10 Farhan Fariborz M Remote wellness monitoring system with universally accessible interface
US7571070B2 (en) 2006-08-30 2009-08-04 International Business Machines Corporation Measurement system fleet optimization
US8564544B2 (en) * 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
US8564543B2 (en) 2006-09-11 2013-10-22 Apple Inc. Media player with imaged based browsing
WO2008032329A2 (en) 2006-09-13 2008-03-20 Alon Atsmon Providing content responsive to multimedia signals
US7856605B2 (en) 2006-10-26 2010-12-21 Apple Inc. Method, system, and graphical user interface for positioning an insertion marker in a touch screen display
US7518959B2 (en) 2006-12-01 2009-04-14 Seiko Epson Corporation Display device and display method
US20080140413A1 (en) * 2006-12-07 2008-06-12 Jonathan Travis Millman Synchronization of audio to reading
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US20080165148A1 (en) 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
US8689132B2 (en) 2007-01-07 2014-04-01 Apple Inc. Portable electronic device, method, and graphical user interface for displaying electronic documents and lists
US8650505B2 (en) 2007-02-28 2014-02-11 Rpx Corporation Multi-state unified pie user interface
US20080229206A1 (en) 2007-03-14 2008-09-18 Apple Inc. Audibly announcing user interface elements
US8219406B2 (en) 2007-03-15 2012-07-10 Microsoft Corporation Speech-centric multimodal user interface design in mobile technology
JP4468404B2 (ja) 2007-05-02 2010-05-26 キヤノン株式会社 情報処理装置の制御方法、情報処理装置及びプログラム
KR100844071B1 (ko) * 2007-05-09 2008-07-07 엘지전자 주식회사 웹페이지 표시가 가능한 이동통신 단말기 및 그 제어방법
WO2008151212A1 (en) * 2007-06-04 2008-12-11 Nexidia Inc. Speech skills assessment
TWI408572B (zh) * 2007-06-08 2013-09-11 Sony Corp Information processing device, input device, information processing system, information processing method and computer readable storage medium
US8059101B2 (en) * 2007-06-22 2011-11-15 Apple Inc. Swipe gestures for touch screen keyboards
KR20100036217A (ko) 2007-07-04 2010-04-07 소니 가부시끼가이샤 입력 장치, 제어 장치, 제어 방법 및 핸드헬드 장치
US20090051671A1 (en) 2007-08-22 2009-02-26 Jason Antony Konstas Recognizing the motion of two or more touches on a touch-sensing surface
JP2009093291A (ja) 2007-10-04 2009-04-30 Toshiba Corp ジェスチャー判定装置及び方法
KR20090056469A (ko) 2007-11-30 2009-06-03 삼성전자주식회사 터치 스크린에서 터치 구동 장치 및 방법
JP4605478B2 (ja) 2007-12-19 2011-01-05 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
US8677285B2 (en) * 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US9092134B2 (en) 2008-02-04 2015-07-28 Nokia Technologies Oy User touch display interface providing an expanded selection area for a user selectable object
TW200937254A (en) * 2008-02-29 2009-09-01 Inventec Appliances Corp A method for inputting control commands and a handheld device thereof
US8908973B2 (en) 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
JP2009245423A (ja) * 2008-03-13 2009-10-22 Panasonic Corp 情報機器およびウインドウ表示方法
US8468469B1 (en) * 2008-04-15 2013-06-18 Google Inc. Zooming user interface interactions
US8456380B2 (en) 2008-05-15 2013-06-04 International Business Machines Corporation Processing computer graphics generated by a remote computer for streaming to a client computer
US20090313020A1 (en) 2008-06-12 2009-12-17 Nokia Corporation Text-to-speech user interface control
US8182372B2 (en) * 2008-06-13 2012-05-22 Bernard Hayes Device for training athletic or sports ball players
US8239201B2 (en) 2008-09-13 2012-08-07 At&T Intellectual Property I, L.P. System and method for audibly presenting selected text
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
KR101075728B1 (ko) 2008-09-25 2011-10-21 엘지전자 주식회사 영상표시장치 및 영상표시장치의 채널정보 표시방법
US8237666B2 (en) * 2008-10-10 2012-08-07 At&T Intellectual Property I, L.P. Augmented I/O for limited form factor user-interfaces
US20100107116A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch user interfaces
JP2010152761A (ja) 2008-12-25 2010-07-08 Sony Corp 入力装置、制御装置、制御システム、電子機器及び制御方法
US8839154B2 (en) * 2008-12-31 2014-09-16 Nokia Corporation Enhanced zooming functionality
US20100324895A1 (en) * 2009-01-15 2010-12-23 K-Nfb Reading Technology, Inc. Synchronization for document narration
US8280434B2 (en) * 2009-02-27 2012-10-02 Research In Motion Limited Mobile wireless communications device for hearing and/or speech impaired user
US9927873B2 (en) 2009-03-12 2018-03-27 Immersion Corporation Systems and methods for using textures in graphical user interface widgets
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US8212788B2 (en) * 2009-05-07 2012-07-03 Microsoft Corporation Touch input to modulate changeable parameter
US20100289757A1 (en) * 2009-05-14 2010-11-18 Budelli Joey G Scanner with gesture-based text selection capability
US20100295793A1 (en) * 2009-05-19 2010-11-25 Sudharshan Srinivasan Two stroke touch panel data entry system
KR101564222B1 (ko) * 2009-05-26 2015-11-06 삼성전자주식회사 휴대단말의 잠금 모드 해제 방법 및 장치
US20120327009A1 (en) 2009-06-07 2012-12-27 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US9009612B2 (en) 2009-06-07 2015-04-14 Apple Inc. Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
US8171401B2 (en) 2009-06-19 2012-05-01 Microsoft Corporation Resizing an editable area in a web page
US9262063B2 (en) * 2009-09-02 2016-02-16 Amazon Technologies, Inc. Touch-screen user interface
US8438500B2 (en) 2009-09-25 2013-05-07 Apple Inc. Device, method, and graphical user interface for manipulation of user interface objects with activation regions
US9338274B2 (en) 2009-10-02 2016-05-10 Blackberry Limited Method of interacting with electronic devices in a locked state and handheld electronic device configured to permit interaction when in a locked state
US8381118B2 (en) * 2009-10-05 2013-02-19 Sony Ericsson Mobile Communications Ab Methods and devices that resize touch selection zones while selected on a touch sensitive display
US8957918B2 (en) 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US9678659B2 (en) * 2009-12-31 2017-06-13 Verizon Patent And Licensing Inc. Text entry for a touch screen
US8103554B2 (en) * 2010-02-24 2012-01-24 GM Global Technology Operations LLC Method and system for playing an electronic book using an electronics system in a vehicle
US9361018B2 (en) 2010-03-01 2016-06-07 Blackberry Limited Method of providing tactile feedback and apparatus
US9535500B2 (en) 2010-03-01 2017-01-03 Blackberry Limited Method of providing tactile feedback and apparatus
US8704783B2 (en) * 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US20110264452A1 (en) * 2010-04-27 2011-10-27 Ramya Venkataramu Audio output of text data using speech control commands
US20110298723A1 (en) 2010-06-07 2011-12-08 Christopher Brian Fleizach Devices, Methods, and Graphical User Interfaces for Accessibility via a Touch-Sensitive Surface
US8707195B2 (en) 2010-06-07 2014-04-22 Apple Inc. Devices, methods, and graphical user interfaces for accessibility via a touch-sensitive surface
US20110300915A1 (en) 2010-06-08 2011-12-08 Nokia Corporation Method, apparatus and computer program product for enabling partial functionality of a mobile terminal
US8972903B2 (en) 2010-07-08 2015-03-03 Apple Inc. Using gesture to navigate hierarchically ordered user interface screens
US8452600B2 (en) * 2010-08-18 2013-05-28 Apple Inc. Assisted reader
US9658732B2 (en) 2010-10-19 2017-05-23 Apple Inc. Changing a virtual workspace based on user interaction with an application window in a user interface
US20120098705A1 (en) 2010-10-22 2012-04-26 Palm, Inc. Use of heuristic data for sending message from mobile computing device
JP5789965B2 (ja) 2010-12-01 2015-10-07 富士通株式会社 画像送信方法、画像送信装置および画像送信プログラム
US9235340B2 (en) 2011-02-18 2016-01-12 Microsoft Technology Licensing, Llc Modal touch input
KR20120097944A (ko) 2011-02-28 2012-09-05 삼성전자주식회사 터치 스크린을 구비한 단말기 및 그 단말기에서 데이터 출력 방법
US20140192626A1 (en) 2011-03-02 2014-07-10 Royal Hali Iplik Tekstil Mobilya Sanayi Ve Ticaret Anonim Sirketi Talking Dome Watch for the Visually Impaired
US20120242584A1 (en) 2011-03-22 2012-09-27 Nokia Corporation Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US8787122B2 (en) 2011-05-31 2014-07-22 International Business Machines Corporation Time reporting through vibration
US8751971B2 (en) 2011-06-05 2014-06-10 Apple Inc. Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
US9069460B2 (en) 2011-09-12 2015-06-30 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US8483018B2 (en) 2011-12-08 2013-07-09 Nicholas Leon Anderson Braille watch
US9213822B2 (en) 2012-01-20 2015-12-15 Apple Inc. Device, method, and graphical user interface for accessing an application in a locked device
US8881269B2 (en) 2012-03-31 2014-11-04 Apple Inc. Device, method, and graphical user interface for integrating recognition of handwriting gestures with a screen reader
US8954890B2 (en) * 2012-04-12 2015-02-10 Supercell Oy System, method and graphical user interface for controlling a game
DE102012216002B3 (de) 2012-05-18 2013-09-12 Leica Microsystems Cms Gmbh Schaltung und Verfahren zum Erzeugen von periodischen Steuersignalen sowie Mikroskop und Verfahren zum Steuern eines Mikroskops
US10444836B2 (en) 2012-06-07 2019-10-15 Nook Digital, Llc Accessibility aids for users of electronic devices
US8868426B2 (en) 2012-08-23 2014-10-21 Freedom Scientific, Inc. Screen reader with focus-based speech verbosity
DE102012018211B4 (de) 2012-09-14 2015-07-16 Audi Ag Verfahren zum Bedienen einer Funktionseinrichtung eines Kraftfahrzeugs
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US9454229B1 (en) 2013-04-11 2016-09-27 Alexander Wellen Method and device for tactilely reading time on a touch screen
US9772764B2 (en) 2013-06-06 2017-09-26 Microsoft Technology Licensing, Llc Accommodating sensors and touch in a unified experience
KR20150008996A (ko) 2013-07-04 2015-01-26 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR20150118813A (ko) 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
US20150339018A1 (en) 2014-05-23 2015-11-26 Samsung Electronics Co., Ltd. User terminal device and method for providing information thereof
US10466883B2 (en) 2015-03-02 2019-11-05 Apple Inc. Screenreader user interface
DK201670580A1 (en) 2016-06-12 2018-01-02 Apple Inc Wrist-based tactile time feedback for non-sighted users

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832528A (en) * 1994-08-29 1998-11-03 Microsoft Corporation Method and system for selecting text with a mouse input device in a computer system
JPH09190436A (ja) * 1996-01-12 1997-07-22 Toshiba Corp 情報処理装置及び範囲指定方法
JP2004151614A (ja) * 2002-11-01 2004-05-27 Nippon Hoso Kyokai <Nhk> 文字データ修正装置、その方法及びそのプログラム、並びに、字幕の生成方法
JP2008508600A (ja) * 2004-07-30 2008-03-21 アップル インコーポレイテッド タッチ・センシティブ入力デバイスのためのモード・ベースのグラフィカル・ユーザ・インタフェース
JP2007095024A (ja) * 2005-09-05 2007-04-12 Kenta Nakamura 皮膚の触覚を伴う情報入力装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137750A (ja) * 2011-11-28 2013-07-11 Kyocera Corp 装置、方法、及びプログラム
JP2014021829A (ja) * 2012-07-20 2014-02-03 Canon Inc 情報処理装置及びその制御方法
US9658764B2 (en) 2012-07-20 2017-05-23 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
JP2015026360A (ja) * 2013-06-20 2015-02-05 パナソニックIpマネジメント株式会社 情報処理装置
JP2018005763A (ja) * 2016-07-07 2018-01-11 本田技研工業株式会社 操作入力装置

Also Published As

Publication number Publication date
JP5714519B2 (ja) 2015-05-07
JP2012138096A (ja) 2012-07-19
US20160070433A1 (en) 2016-03-10
EP2458493A3 (en) 2012-08-08
KR20120032013A (ko) 2012-04-04
US20200081598A1 (en) 2020-03-12
AU2010259191B2 (en) 2014-04-03
US20100313125A1 (en) 2010-12-09
KR101442929B1 (ko) 2014-09-24
US9009612B2 (en) 2015-04-14
KR20120047257A (ko) 2012-05-11
KR101753544B1 (ko) 2017-07-03
JP5812988B2 (ja) 2015-11-17
US20100309148A1 (en) 2010-12-09
KR101591450B1 (ko) 2016-02-11
EP2458492A3 (en) 2012-11-07
US8493344B2 (en) 2013-07-23
US10061507B2 (en) 2018-08-28
KR20120032012A (ko) 2012-04-04
US20100309147A1 (en) 2010-12-09
WO2010144201A3 (en) 2011-08-11
US20130311921A1 (en) 2013-11-21
KR20120061064A (ko) 2012-06-12
JP2012529683A (ja) 2012-11-22
WO2010144201A2 (en) 2010-12-16
EP2458493A2 (en) 2012-05-30
KR20160018839A (ko) 2016-02-17
KR101509870B1 (ko) 2015-04-08
EP2440991A2 (en) 2012-04-18
US8681106B2 (en) 2014-03-25
EP2458492A2 (en) 2012-05-30
AU2010259191A1 (en) 2012-02-02
EP2458493B1 (en) 2019-08-28
US10474351B2 (en) 2019-11-12
US20190065023A1 (en) 2019-02-28
JP5451789B2 (ja) 2014-03-26

Similar Documents

Publication Publication Date Title
JP5714519B2 (ja) 接触感知表面を使用するアクセシビリティのためのデバイス、方法及びグラフィカルユーザインタフェース
JP6336550B2 (ja) タッチスクリーンディスプレイを有する多機能デバイスでの編集の方法およびグラフィカルユーザインターフェース
US20120327009A1 (en) Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface
AU2012200071B2 (en) Devices, methods, and graphical user interfaces for accessibility using a touch-sensitive surface

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130830

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131226

R150 Certificate of patent or registration of utility model

Ref document number: 5451789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R154 Certificate of patent or utility model (reissue)

Free format text: JAPANESE INTERMEDIATE CODE: R154

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250