JP6216839B2 - 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース - Google Patents

電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース Download PDF

Info

Publication number
JP6216839B2
JP6216839B2 JP2016130565A JP2016130565A JP6216839B2 JP 6216839 B2 JP6216839 B2 JP 6216839B2 JP 2016130565 A JP2016130565 A JP 2016130565A JP 2016130565 A JP2016130565 A JP 2016130565A JP 6216839 B2 JP6216839 B2 JP 6216839B2
Authority
JP
Japan
Prior art keywords
document
gesture
display
touch
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016130565A
Other languages
English (en)
Other versions
JP2016194944A (ja
Inventor
チャールズ, ジェイ. ミゴス,
チャールズ, ジェイ. ミゴス,
ジェイ, クリストファー カペラ,
ジェイ, クリストファー カペラ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2016194944A publication Critical patent/JP2016194944A/ja
Application granted granted Critical
Publication of JP6216839B2 publication Critical patent/JP6216839B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0483Interaction with page-structured environments, e.g. book metaphor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/169Annotation, e.g. comment data or footnotes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本明細書は、全体として、電子文書を表示するタッチ感知表面を有する電子デバイスを含むがこれに限定されない、タッチ感知表面を有する電子デバイスに関する。
コンピュータ及び他の電子計算デバイスのための入力デバイスとしてのタッチ感知表面の使用は、近年大幅に増加している。例示的なタッチ感知表面は、タッチパッド及びタッチスクリーンディスプレイを含む。このような表面は、ディスプレイ上の電子文書を操作するために広く使用されている。
タッチ感知表面を有する電子デバイスに関して、電子文書をナビゲートする既存の方法は、扱いにくく、非効率的である。加えて、既存の方法は、必要以上に長く掛かり、したがってエネルギーを浪費する。この後者の考慮すべき事柄は、バッテリ駆動デバイスでは特に重要である。
したがって、電子文書をナビゲートするためのより高速で、より効率的な方法及びインタフェースを有する電子デバイスが必要とされている。このような方法及びインタフェースは、電子文書をナビゲートする従来の方法を補完する又は置き換えることができる。このような方法及びインタフェースは、ユーザの認識の負担を軽減し、より効率的なマン−マシン(人間−機械)インタフェースを提供する。バッテリ駆動デバイスに関して、このような方法及びインタフェースは、電力を浪費せず、バッテリ充電間の時間を長くする。
タッチ感知表面を有する電子デバイスのためのユーザインタフェースに関する上記の欠陥及び他の問題は、開示されるデバイスによって低減又は排除される。いくつかの実施形態では、デバイスはデスクトップコンピュータである。いくつかの実施形態では、デバイスは携帯型(例えば、ノートブックコンピュータ、タブレットコンピュータ、又はハンドヘルドデバイス)である。いくつかの実施形態では、デバイスはタッチパッドを有する。いくつかの実施形態では、デバイスはタッチ感知ディスプレイ(「タッチスクリーン」又は「タッチスクリーンディスプレイ」としても知られる)を有する。いくつかの実施形態では、デバイスは、グラフィカルユーザインタフェース(GUI)と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のモジュールとを有し、複数の機能を実行するためのプログラム又は命令の組がメモリに格納される。いくつかの実施形態では、ユーザは、主に、タッチ感知表面上の指の接触及びジェスチャを介してGUIと相互作用する。いくつかの実施形態では、機能は、画像編集、描画、表現、文書処理、ウェブサイト作成、ディスクオーサリング、表計算作成、ゲームプレイ、電話、ビデオ会議、電子メール、インスタントメッセージング、ワークアウトサポート、デジタル写真撮影、デジタルビデオ撮影、ウェブ閲覧、デジタル音楽再生、及び/又は、デジタルビデオ再生を含んでよい。これらの機能を実行するための実行可能な命令は、非一時的なコンピュータ可読記憶媒体、又は、1つ又は複数のプロセッサによって実行するために構成された他のコンピュータプログラムに含まれてよい。
いくつかの実施形態によれば、方法は、ディスプレイ及びタッチ感知表面を有する電子デバイスで実行される。方法は、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納する工程を含む。方法は、文書の表現をディスプレイ上のセグメント化されたユーザインタフェース内に表示する工程も含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。方法は、文書のユーザ生成コンテンツを見るための要求を受信する工程を含む。方法は、さらに、要求に応じて、前に表示された主要コンテンツの表示を維持する工程、前に表示された補足コンテンツの少なくとも一部の表示を中止する工程と、文書のユーザ生成コンテンツを、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示する工程とを含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを含む。1つ又は複数のプログラムは、メモリ内に格納され、1つ又は複数のプロセッサによって実行されるように構成される。1つ又は複数のプログラムは、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納するための命令を含む。1つ又は複数のプログラムは、ディスプレイ上のセグメント化されたユーザインタフェース内に文書の表現を表示するための命令も含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。1つ又は複数のプログラムは、文書のユーザ生成コンテンツを見るための要求を受信するための命令を含む。1つ又は複数のプログラムは、さらに、要求に応じて、前に表示された主要コンテンツの表示を維持するための命令と、前に表示された補足コンテンツの少なくとも一部の表示を中止するための命令と、文書のユーザ生成コンテンツを、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示するための命令とを含む。
いくつかの実施形態によれば、コンピュータ可読記憶媒体は、ディスプレイ及びタッチ感知表面を有する電子デバイスによって実行されると、デバイスに、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納させる命令を格納している。命令は、また、デバイスに、文書の表現をディプレイ上のセグメント化されたユーザインタフェース内に表示させる。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。命令は、デバイスに、文書のユーザ生成コンテンツを見るための要求を受信させる。命令は、さらに、要求に応じて、デバイスに、前に表示された主要コンテンツの表示を維持させ、前に表示された補足コンテンツの少なくとも一部の表示を中止させ、文書のユーザ生成コンテンツを、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示させる。
いくつかの実施形態によれば、ディスプレイと、タッチ感知表面と、メモリと、メモリ内に格納された1つ又は複数のプログラムを実行する1つ又は複数のプロセッサとを有する電子デバイス上のグラフィカルユーザインタフェースは、セグメント化されたユーザインタフェース内の文書の表現を含む。文書は、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。文書のユーザ生成コンテンツを見るための要求の受信に応じて、前に表示された主要コンテンツの表示が維持され、前に表示された補足コンテンツの少なくとも一部の表示が中止され、文書のユーザ生成コンテンツが、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納するための手段とを含む。電子デバイスは、文書の表現をディスプレイ上のセグメント化されたユーザインタフェース内に表示させるための手段も含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。電子デバイスは、文書のユーザ生成コンテンツを見るための要求を受信するための手段を含む。電子デバイスは、さらに、要求に応じて使用可能な、前に表示された主要コンテンツの表示を維持するための手段と、前に表示された補足コンテンツの少なくとも一部の表示を中止するための手段と、文書のユーザ生成コンテンツを、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示するための手段とを含む。
いくつかの実施形態によれば、ディスプレイ及びタッチ感知表面を有する電子デバイスで使用するための情報処理装置は、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納するための手段を含む。情報処理装置は、文書の表現をディスプレイ上のセグメント化されたユーザインタフェース内に表示させる手段も含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。情報処理装置は、文書のユーザ生成コンテンツを見るための要求を受信するための手段を含む。情報処理装置は、さらに、要求に応じて使用可能な、前に表示された主要コンテンツの表示を維持するための手段と、前に表示された補足コンテンツの少なくとも一部の表示を中止するための手段と、文書のユーザ生成コンテンツを、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示するための手段とを含む。
いくつかの実施形態によれば、方法が、ディスプレイ及びタッチ感知表面を有する電子デバイスで実行される。方法は、主要コンテンツ及び補足コンテンツを有する文書を格納する工程と、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示させる工程とを含む。第1の表示モードでは、補足コンテンツは主要コンテンツと視覚的に一体化される。方法は、また、文書のコンテンツが第1の表示モードで表示されている間、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信する工程と、要求に応じて、文書のコンテンツを第2の表示モードで表示させる工程とを含む。第2の表示モードでは、補足コンテンツの表現が主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを含む。1つ又は複数のプログラムは、メモリ内に格納され、1つ又は複数のプロセッサによって実行されるように構成される。1つ又は複数のプログラムは、主要コンテンツ及び補足コンテンツを有する文書を格納するための命令と、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示させるための命令とを含む。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。1つ又は複数のプログラムは、また、文書のコンテンツが第1の表示モードで表示されている間、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信するための命令と、要求に応じて、文書のコンテンツを第2の表示モードで表示させるための命令とを含む。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、コンピュータ可読記憶媒体は、ディスプレイ及びタッチ感知表面を有する電子デバイスによって実行されると、デバイスに、主要コンテンツ及び補足コンテンツを有する文書を格納させ、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示させる命令を格納している。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。命令は、また、デバイスに、文書のコンテンツが第1の表示モードで表示されている間、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信させ、要求に応じて、文書のコンテンツを第2の表示モードで表示させる。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、ディスプレイと、タッチ感知表面と、メモリと、メモリ内に格納された1つ又は複数のプログラムを実行する1つ又は複数のプロセッサとを有する電子デバイス上のグラフィカルユーザインタフェースは、文書プレゼンテーションアプリケーションの第1の表示モードでは文書のコンテンツを含む。文書は、主要コンテンツ及び補足コンテンツを有し、補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。文書のコンテンツを第1の表示モードで表示している間、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求の受信に応じて、文書のコンテンツは第2の表示モードで表示される。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、主要コンテンツ及び補足コンテンツを有する文書を格納する手段と、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示させる手段とを含む。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。電子デバイスは、また、文書のコンテンツが第1の表示モードで表示されている間に使用可能な、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信するための手段と、要求に応じて使用可能な、文書のコンテンツを第2の表示モードで表示させるための手段とを含む。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、ディスプレイ及びタッチ感知表面を有する電子デバイスで使用するための情報処理装置は、主要コンテンツ及び補足コンテンツを有する文書を格納する手段と、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示させる手段とを含む。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。情報処理装置は、また、文書のコンテンツが第1の表示モードで表示されている間に使用可能な、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信するための手段と、要求に応じて使用可能な、文書のコンテンツを第2の表示モードで表示させるための手段とを含む。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、方法が、ディスプレイ及びタッチ感知表面を有する電子デバイスで実行される。方法は、文書内に個々の位置を有する複数の特徴を有する文書を格納する工程を含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。方法は、また、文書の少なくとも一部をディスプレイ上に表示させる工程と、タッチ感知表面上の第1のジェスチャを検出する工程とを含む。方法は、第1のジェスチャの検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートする工程と、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートする工程とを含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを含む。1つ又は複数のプログラムは、メモリ内に格納され、1つ又は複数のプロセッサによって実行されるように構成される。1つ又は複数のプログラムは、文書内に個々の位置を有する複数の特徴を有する文書を格納するための命令を含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。1つ又は複数のプログラムは、また、文書の少なくとも一部をディスプレイ上に表示させるための命令と、タッチ感知表面上の第1のジェスチャを検出するための命令とを含む。1つ又は複数のプログラムは、第1のジェスチャの検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための命令と、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための命令とを含む。
いくつかの実施形態によれば、コンピュータ可読媒体は、ディスプレイ及びタッチ感知表面を有する電子デバイスによって実行されると、デバイスに、文書内に個々の位置を有する複数の特徴を有する文書を格納させる命令を格納している。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。命令は、また、デバイスに、文書の少なくとも一部をディスプレイ上に表示させ、タッチ感知表面上の第1のジェスチャを検出させる。命令は、デバイスに、第1のジェスチャの検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートさせ、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートさせる。
いくつかの実施形態によれば、ディスプレイと、タッチ感知表面と、メモリと、メモリ内に格納された1つ又は複数のプログラムを実行する1つ又は複数のプロセッサとを有する電子デバイス上のグラフィカルユーザインタフェースは、文書の少なくとも一部の表示を含む。文書は、文書内に個々の位置を有する複数の特徴を有し、複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。第1のジェスチャの検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書は、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートされ、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書は、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートされる。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、文書内に個々の位置を有する複数の特徴を有する文書を格納するための手段とを含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。電子デバイスは、また、文書の少なくとも一部をディスプレイ上に表示させるための手段と、タッチ感知表面上の第1のジェスチャを検出するための手段とを含む。電子デバイスは、第1のジェスチャの検出に応じて使用可能な、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって使用可能な、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための手段と、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって使用可能な、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための手段とを含む。
いくつかの実施形態によれば、ディスプレイ及びタッチ感知表面を有する電子デバイスで使用するための情報処理装置は、文書内に個々の位置を有する複数の特徴を有する文書を格納するための手段を含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。情報処理装置は、また、文書の少なくとも一部をディスプレイ上に表示させるための手段と、タッチ感知表面上の第1のジェスチャを検出するための手段とを含む。情報処理装置は、第1のジェスチャの検出に応じて使用可能な、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって使用可能な、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための手段と、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって使用可能な、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするための手段とを含む。
いくつかの実施形態によれば、方法が、ディスプレイ及びタッチ感知表面を有する電子デバイスで実行される。方法は複数セグメント文書の一部を表示する工程を含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。方法は、また、タッチ感知表面上の予め定義されたジェスチャを検出する工程と、予め定義されたジェスチャの検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列を表示する工程とを含む。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを含む。1つ又は複数のプログラムは、メモリ内に格納され、1つ又は複数のプロセッサによって実行されるように構成される。1つ又は複数のプログラムは、複数セグメント文書の一部を表示させる命令を含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。1つ又は複数のプログラムは、また、タッチ感知表面上の予め定義されたジェスチャを検出させる命令と、予め定義されたジェスチャの検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列を表示させる命令とを含む。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、コンピュータ可読媒体は、ディスプレイ及びタッチ感知表面を有する電子デバイスによって実行されると、デバイスに、複数セグメント文書の一部を表示させる命令を格納している。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。命令は、また、デバイスに、タッチ感知表面上の予め定義されたジェスチャを検出させ、予め定義されたジェスチャの検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列を表示させる。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、ディスプレイと、タッチ感知表面と、メモリと、メモリ内に格納された1つ又は複数のプログラムを実行する1つ又は複数のプロセッサとを有する電子デバイス上のグラフィカルユーザインタフェースは、複数セグメント文書の一部を含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。タッチ感知表面上の予め定義されたジェスチャの検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列が表示される。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、複数セグメント文書の一部を表示するための手段とを含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。電子デバイスは、また、タッチ感知表面上の予め定義されたジェスチャを検出するための手段と、予め定義されたジェスチャの検出に応じて使用可能な、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列を表示するための手段とを含む。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、ディスプレイ及びタッチ感知表面を有する電子デバイスで使用するための情報処理装置は、複数セグメント文書の一部を表示するための手段を含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。情報処理装置は、また、タッチ感知表面上の予め定義されたジェスチャを検出するための手段と、予め定義されたジェスチャの検出に応じて使用可能な、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列を表示するための手段とを含む。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、方法が、ディスプレイ及びタッチ感知表面を有する電子デバイスで実行される。方法は、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示する工程と、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャを検出する工程とを含む。文書の第2の部分は、個々の注釈を含む。方法は、ジェスチャの検出に応じて、文書の第1の部分を表示し続けながら、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現を表示する工程も含む。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、1つ又は複数のプロセッサと、メモリと、1つ又は複数のプログラムとを含む。1つ又は複数のプログラムは、メモリ内に格納され、1つ又は複数のプロセッサによって実行されるように構成される。1つ又は複数のプログラムは、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示させる命令と、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャを検出させる命令とを含む。文書の第2の部分は、個々の注釈を含む。1つ又は複数のプログラムは、ジェスチャの検出に応じて、文書の第1の部分を表示し続けながら、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現を表示させる命令も含む。
いくつかの実施形態によれば、コンピュータ可読媒体は、ディスプレイ及びタッチ感知表面を有する電子デバイスによって実行されると、デバイスに、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示させ、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャを検出させる命令を格納している。文書の第2の部分は、個々の注釈を含む。命令は、デバイスに、ジェスチャの検出に応じて、文書の第1の部分を表示させ続けながら、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現を表示させる。
いくつかの実施形態によれば、ディスプレイと、タッチ感知表面と、メモリと、メモリ内に格納された1つ又は複数のプログラムを実行する1つ又は複数のプロセッサとを有する電子デバイス上のグラフィカルユーザインタフェースは、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーの同時表示を含む。文書の第2の部分(文書の第2の部分は、個々の注釈を含む)に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でのジェスチャの検出に応じて、個々の注釈の表現を含む文書の第2の部分の表現が、文書の第1の部分を表示させ続けながら、ナビゲーションバーの一部に近接する位置に表示される。
いくつかの実施形態によれば、電子デバイスは、ディスプレイと、タッチ感知表面と、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示するための手段と、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャを検出するための手段とを含む。文書の第2の部分は、個々の注釈を含む。電子デバイスは、ジェスチャの検出に応じて使用可能な、文書の第1の部分を表示し続けながら、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現を表示するための手段を含む。
いくつかの実施形態によれば、ディスプレイ及びタッチ感知表面を有する電子デバイスで使用するための情報処理装置は、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示するための手段と、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャを検出するための手段とを含む。文書の第2の部分は、個々の注釈を含む。情報処理装置は、ジェスチャの検出に応じて使用可能な、文書の第1の部分を表示し続けながら、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現を表示するための手段も含む。
いくつかの実施形態によれば、電子デバイスは、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納するように構成された記憶ユニットと、セグメント化されたユーザインタフェース内に文書の表現を表示するように構成された表示ユニットとを含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは、第1のセグメントとは異なるセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される。電子デバイスは、また、文書のユーザ生成コンテンツを見るための要求を受信するように構成されたタッチ感知表面ユニットと、記憶ユニット、表示ユニット、及びタッチ感知表面ユニットに結合された処理ユニットとを含む。処理ユニットは、要求に応じて、表示ユニット上の、前に表示された主要コンテンツの表示を維持し、表示ユニット上の、前に表示された補足コンテンツの少なくとも一部の表示を中止し、表示ユニット上で、第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントへの文書のユーザ生成コンテンツの表示を可能にするように構成される。
いくつかの実施形態によれば、電子デバイスは、主要コンテンツ及び補足コンテンツを有する文書を格納するように構成された記憶ユニットと、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示するように構成された表示ユニットとを含む。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される。電子デバイスは、また、ユーザ入力を受信するように構成されたタッチ感知表面ユニットと、記憶ユニット、表示ユニット、及びタッチ感知表面ユニットに結合された処理ユニットとを含む。処理ユニットは、表示ユニットが文書のコンテンツを第1の表示モードで表示している間、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信し、要求に応じて、表示ユニット上での文書のコンテンツの第2の表示モードでの表示を可能にするように構成される。補足コンテンツの表現は、第2の表示モードでは、主要コンテンツから視覚的に分離される。
いくつかの実施形態によれば、電子デバイスは、文書内に個々の位置を有する複数の特徴を有する文書を格納するように構成された記憶ユニットを含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。電子デバイスは、また、文書の少なくとも一部を表示するように構成された表示ユニットと、第1のジェスチャを検出するように構成されたタッチ感知表面ユニットと、記憶ユニット、表示ユニット、及びタッチ感知表面ユニットに結合された処理ユニットとを含む。処理ユニットは、第1のジェスチャの検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートし、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部にナビゲートするように構成される。
いくつかの実施形態によれば、電子デバイスは、複数セグメント文書の一部を表示するように構成された表示ユニットを含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。電子デバイスは、また、予め定義されたジェスチャを検出するように構成されたタッチ感知表面ユニットと、表示ユニット及びタッチ感知表面ユニットに結合された処理ユニットとを含む。処理ユニットは、予め定義されたジェスチャの検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列の表示を可能にするように構成される。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態によれば、電子デバイスは、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示するように構成された表示ユニットと、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面ユニット上の位置でジェスチャを検出するように構成されたタッチ感知表面ユニットとを含む。文書の第2の部分は、個々の注釈を含む。電子デバイスは、表示ユニット及びタッチ感知表面ユニットに結合された処理ユニットも含む。処理ユニットは、ジェスチャの検出に応じて、表示ユニットに文書の第1の部分を表示し続けながら、表示ユニット上の、ナビゲーションバーの一部に近接する位置での、個々の注釈の表現を含む文書の第2の部分の表現の表示を可能にするように構成される。
したがって、ディスプレイ及びタッチ感知表面を有する電子デバイスには、電子文書をナビゲートするためのより高速でより効率的な方法及びインタフェースが提供され、それによって、このようなデバイスによる有効性、効率、及びユーザ満足度が高められる。このような方法及びインタフェースは、電子文書をナビゲートする従来の方法を補完する又は置き換えることができる。
本発明の上述の実施形態並びにそれらの追加の実施形態をより良く理解するために、以下の実施形態の説明を、図面を通して同じ参照番号が対応する部分を指す以下の図面と併せて参照すべきである。
いくつかの実施形態による、タッチ感知ディスプレイを有する携帯型多機能デバイスを示すブロック図である。 いくつかの実施形態による、イベント処理のための例示的な構成要素を示すブロック図である。 いくつかの実施形態による、タッチスクリーンを有する携帯型多機能デバイスを示す。 いくつかの実施形態による、ディスプレイ及びタッチ感知表面を有する例示的な多機能デバイスのブロック図である。 いくつかの実施形態による、携帯型多機能デバイス上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。 いくつかの実施形態による、ディスプレイとは別のタッチ感知表面を有する多機能デバイスのための例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、電子文書をナビゲートする例示的なユーザインタフェースを示す。 いくつかの実施形態による、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを、電子文書のためのセグメント化されたユーザインタフェース内に表示する方法を示す流れ図である。 いくつかの実施形態による、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを、電子文書のためのセグメント化されたユーザインタフェース内に表示する方法を示す流れ図である。 いくつかの実施形態による、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを、電子文書のためのセグメント化されたユーザインタフェース内に表示する方法を示す流れ図である。 いくつかの実施形態による、電子文書内の主要コンテンツ及び補足コンテンツを、視覚的に一体化された表示モード及び視覚的に分離された表示モードで表示する方法を示す流れ図である。 いくつかの実施形態による、電子文書内の主要コンテンツ及び補足コンテンツを、視覚的に一体化された表示モード及び視覚的に分離された表示モードで表示する方法を示す流れ図である。 いくつかの実施形態による、電子文書内の主要コンテンツ及び補足コンテンツを、視覚的に一体化された表示モード及び視覚的に分離された表示モードで表示する方法を示す流れ図である。 いくつかの実施形態による、電子文書を単一接触ジェスチャ及び複数接触ジェスチャでナビゲートする方法を示す流れ図である。 いくつかの実施形態による、注釈付きのセグメント表現の配列を表示する方法を示す流れ図である。 いくつかの実施形態による、電子文書をナビゲーションバーでナビゲートする方法を示す流れ図である。 いくつかの実施形態による、電子デバイスの機能的ブロック図である。 いくつかの実施形態による、電子デバイスの機能的ブロック図である。 いくつかの実施形態による、電子デバイスの機能的ブロック図である。 いくつかの実施形態による、電子デバイスの機能的ブロック図である。 いくつかの実施形態による、電子デバイスの機能的ブロック図である。
電子書籍、新聞、及び雑誌のような電子文書は、従来の紙ベースの文書が提供することができるものを超える、強化された読書体験の可能性を提供する。主要コンテンツ(例えば、テキスト)に加えて、電子文書は、補足コンテンツ(例えば、画像、図、動画、スライドプレゼンテーション、アニメーション、HTML5ウィジェット、動く写真、等のようなマルチメディアコンテンツ)、及びユーザ生成コンテンツ(例えば、ユーザメモ、強調表示、及び他の注釈)も組み込むことができる。しかし、電子文書を見るため及び電子書籍と相互作用するために使用される電子デバイス(例えば、タブレットコンピュータ、スマートフォン、及び他の携帯型デバイス)は、しばしば、電子文書を表示するために限られた画面領域を有する。この限られた画面領域は、効率的な方法で電子文書内の種々の形式のコンテンツを見ることをユーザにとって挑戦的にする。さらに、従来の電子デバイスは、電子文書をナビゲートする(例えば、スクロールする)、非効率的でエネルギーを浪費する限られた方法を提供する。以下に説明する実施形態は、
・ユーザとの相互作用を容易にするために、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツコンテンツを表示する方法、
・様々な形式の読書を容易にするために、コンテンツを異なるデバイスの向き(例えば、縦対横向き)で表示する方法、
・電子文書を、ページごと、章ごと、又は注釈ごとに迅速且つ容易にナビゲートする方法、
・電子文書内のユーザ注釈ページを迅速にまさしく見る方法、及び、
・ユーザ注釈をナビゲーションバーによって迅速に見つける方法、
のような、認識されていない及び/又は適切に対処されていない、電子文書と相互作用する種々の問題を対処する。
以下に説明する実施形態は、これらの問題及び関連する問題に対処する。以下に説明するデバイス及び方法は、ユーザが、電子文書内の主要、補足、及びユーザ生成コンテンツを効率的にナビゲートし、これらと相互作用することを可能にするユーザフレンドリな環境を提供する。
以下、図1A〜1B、2及び3は、例示的なデバイスの説明を提供する。図4A〜4B及び5A〜5Pは、電子文書の種々のコンテンツをナビゲートし、表示するための例示的なユーザインタフェースを示す。図6A〜6C、7A〜7C、及び8〜10は、電子文書をナビゲートする方法を示す流れ図である。図5A〜5Pのユーザインタフェースは、図6A〜6C、7A〜7C、及び8〜10のプロセスを説明するために使用される。図11〜15は、図6A〜6C、7A〜7C、及び8〜10に記載の方法を実行するための電子デバイスを示す。
例示的デバイス
ここで、添付図面に例が示される実施形態を詳細に参照する。以下の詳細な説明では、多数の具体的な詳細が、本発明の完全な理解を提供するために記載される。しかしながら、本発明はこれらの具体的な詳細なしで実施されてもよいことは、当業者には明らかであろう。他の例では、周知の方法、手順、構成要素、回路、及びネットワークが、実施形態の態様を不必要に不明瞭にしないために、詳細に説明されていない。
第1、第2、等の用語は、本明細書で種々の要素を説明するために使用されているであろうが、これらの要素はこれらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を他の要素と区別するためのみに使用される。例えば、本発明の範囲から逸脱することなく、第1の接点を第2の接点と呼ぶことができ、同様に、第2の接点を第1の接点と呼ぶことができる。第1の接点及び第2の接点は両方共接点であるが、これらは同じ接点ではない。
本明細書で本発明の説明に使用される用語法は、単に特定の実施形態を説明する目的のためのものであり、本発明を限定することを意図するものではない。本発明の説明及び添付の特許請求の範囲で使用される場合、単数形「1つの(a、an)」及び「その(the)」は、文脈が別途明らかに示さない限り、複数形も含むことが意図される。本明細書で使用される用語「及び/又は」は、関連する列挙された項目の1つ又は複数の任意のもの及びすべての可能な組み合わせを指し、これらを包含することも理解されるであろう。用語「含む」、「含んでいる」、「備える」及び/又は「備えている」は、本明細書で使用される場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を明示するが、1つ又は複数の他の特徴、整数、ステップ、動作、要素、構成要素及び/又は、それらの群の存在又は追加を排除しないことは、さらに理解されるであろう。
本明細書で使用される場合、用語「場合(if)」は、文脈に応じて、「とき(when)」、「時(upon)」、「決定に応じて(in response to determining)」又は「検出に応じて(in response to detecting)」を意味するものとして解釈され得る。同様に、句「決定された場合(if it is determined)」又は「[述べられた状況又はイベント]が検出された場合」は、文脈に応じて、「決定時に」、「決定に応じて」、「[述べられた状況又はイベント]の検出時に」、又は、「[述べられた状況又はイベント]の検出に応じて」を意味するものとして解釈され得る。
電子デバイス、このようなデバイスのためのユーザインタフェース、及び、このようなデバイスを使用するための関連するプロセスが説明される。いくつかの実施形態では、デバイスは、PDA及び/又は音楽プレーヤ機能のような他の機能も含む、携帯電話のような携帯型通信デバイスである。携帯型多機能デバイスの例示的な実施形態は、制限なしに、カリフォルニア州、クパチーノのアップル社からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)を含む。タッチ感知表面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するラップトップ又はタブレットコンピュータのような他の携帯型電子デバイスが使用されてもよい。いくつかの実施形態では、デバイスは携帯型通信デバイスではなく、タッチ感知表面(例えば、タッチスクリーンディスプレイ及び/又はタッチパッド)を有するデスクトップコンピュータであることも理解されるべきである。
以下の説明では、ディスプレイ及びタッチ感知表面を含む電子デバイスが説明される。しかしながら、電子デバイスは、物理的キーボード、マウス、及び/又はジョイスティックのような1つ又は複数の他の物理的ユーザインタフェースデバイスを含んでもよいことが理解されるべきである。
デバイスは、典型的には、以下、すなわち、描画アプリケーション、プレゼンテーションアプリケーション、文書処理アプリケーション、ウェブサイト作成アプリケーション、ディスクオーサリングアプリケーション、表計算アプリケーション、ゲームアプリケーション、電話アプリケーション、ビデオ会議アプリケーション、電子メールアプリケーション、インスタントメッセージングアプリケーション、ワークアウトサポートアプリケーション、写真管理アプリケーション、デジタルカメラアプリケーション、デジタルビデオカメラアプリケーション、ウェブ閲覧アプリケーション、デジタル音楽プレーヤアプリケーション、及び/又は、デジタルビデオプレーヤアプリケーションの1つ又は複数のような、種々のアプリケーションをサポートする。
デバイス上で実行され得る種々のアプリケーションは、タッチ感知表面のような少なくとも1つの共通の物理的ユーザインタフェースデバイスを使用することができる。タッチ感知表面の1つ又は複数の機能、並びに、デバイス上に表示される対応する情報は、あるアプリケーションから次のアプリケーションまでで、及び/又は、個々のアプリケーション内で調整及び/又は変化されてよい。このようにして、デバイスの(タッチ感知表面のような)共通の物理的アーキテクチャは、ユーザに対して直感的で明白なユーザインタフェースで、種々のアプリケーションをサポートすることができる。
ここで、タッチ感知ディスプレイを有する携帯型デバイスの実施形態に注意を向ける。図1Aは、いくつかの実施形態による、タッチ感知ディスプレイ112を有する携帯型多機能デバイス100を示すブロック図である。タッチ感知ディスプレイ112は、時には、便宜上「タッチスクリーン」と呼ばれ、タッチ感知ディスプレイシステムとして知られる、又は呼ばれることもある。デバイス100は、メモリ102(1つ又は複数のコンピュータ可読記憶媒体を含んでよい)、メモリコントローラ122、1つ又は複数の処理ユニット(CPU)120、周辺機器インタフェース118、RF回路網108、オーディオ回路網110、スピーカ111、マイクロホン113、入力/出力(I/O)サブシステム106、他の入力又は制御デバイス116、及び、外部ポート124を含んでよい。デバイス100は、1つ又は複数の光学センサ164を含んでよい。これらの構成要素は、1つ又は複数の通信バス又は信号線103を介して通信することができる。
デバイス100は携帯型多機能デバイスの単なる一例であり、デバイス100は、図示より多い又は少ない構成要素を有してよく、又は、2つ以上の構成要素を結合してよく、又は、構成要素の異なる構成又は配置を有してよいことが理解されるべきである。図1Aに示す種々の構成要素は、1つ又は複数の信号処理及び/又は特定用途向け集積回路を含む、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの両方の組み合わせで実装されてよい。
メモリ102は、高速ランダムアクセスメモリを含んでよく、1つ又は複数の磁気ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性ソリッドステートメモリデバイスのような不揮発性メモリを含んでもよい。CPU120及び周辺機器インタフェース118のようなデバイス100の他の構成要素によるメモリ102へのアクセスは、メモリコントローラ122によって制御されてよい。
周辺機器インタフェース118は、デバイスの入力及び出力周辺機器を、CPU120及びメモリ102に結合するために使用されてよい。1つ又は複数のプロセッサ120は、デバイス100に関する種々の機能を実行し、データを処理するために、メモリ102に格納された種々のソフトウェアプログラム及び/又は命令の組を実行する。
いくつかの実施形態では、周辺機器インタフェース118、CPU120、及びメモリコントローラ122は、チップ104のような単一のチップ上に実装されてよい。いくつかの他の実施形態では、これらは別個のチップ上に実装されてよい。
RF(無線周波数)回路網108は、電磁信号とも呼ばれるRF信号を送受信する。RF回路網108は、電気信号を電磁信号に/電磁信号を電気信号に変換し、電磁信号を介して通信ネットワーク及び他の通信デバイスと通信する。RF回路網108は、アンテナシステム、RF送受信機、1つ又は複数の増幅器、チューナ、1つ又は複数の発振器、デジタル信号プロセッサ、CODECチップセット、加入者識別モジュール(SIM)カード、メモリ、等を含むがこれらに限定されない、これらの機能を実行するための周知の回路網を含んでよい。RF回路網108は、ワールドワイドウェブ(WWW)とも呼ばれるインターネットのようなネットワーク、イントラネット、並びに/又は、携帯電話ネットワーク、無線ローカルエリアネットワーク(LAN)、及び/若しくは、メトロポリタンエリアネットワーク(MAN)のような無線ネットワークと通信してよく、無線通信によって他のデバイスと通信してよい。無線通信は、モバイル通信用グローバルシステム(GSM(登録商標))、拡張データGSM環境(EDGE)、高速ダウンリンクパケットアクセス(HSDPA)、高速アップリングパケットアクセス(HSUPA)、広帯域符号分割多元接続(W−CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth(登録商標)、Wireless Fidelity(Wi−Fi)(登録商標)(例えば、IEEE802.11a、IEEE802.11b、IEEE802.11g、及び/又はIEEE802.11n)、ボイスオーバーインターネットプロトコル(VoIP)、WiMAX(登録商標)、電子メール用プロトコル(例えば、インターネットメッセージアクセスプロトコル(IMAP)及び/又はポストオフィスプロトコル(POP))、インスタントメッセージング(例えば、拡張可能なメッセージング及びプレゼンス用プロトコル(XMPP)、インスタントメッセージング及びプレゼンスを活用する拡張のためのセッション開始プロトコル(SIMPLE)、インスタントメッセージング及びプレゼンスサービス(IMPS))、及び/又は、ショートメッセージサービス(SMS)、或いは、本願の出願日にはまだ開発されていない通信プロトコルを含む他の適当な通信プロトコルを含むがこれらに限定されない、複数の通信標準、プロトコル及び技術の任意のものを使用してよい。
オーディオ回路網110、スピーカ111、及びマイクロホン113は、ユーザ及びデバイス100間のオーディオインタフェースを提供する。オーディオ回路網110は、周辺機器インタフェース118からオーディオデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカ111に送信する。スピーカ111は、電気信号を人間の可聴音波に変換する。オーディオ回路網110は、マイクロホン113によって音波から変換された電気信号も受信する。オーディオ回路網110は、電気信号をオーディオデータに変換し、オーディオデータを、処理のために周辺機器インタフェース118に送信する。オーディオデータは、メモリ102から取得及び/若しくはメモリ102に送信、並びに/又は、周辺機器インタフェース118によってRF回路網108から取得及び/若しくはRF回路網108に送信されてよい。いくつかの実施形態では、オーディオ回路網110は、ヘッドセットジャック(例えば、図2の212)も含む。ヘッドセットジャックは、オーディオ回路網110と、出力専用ヘッドホン、又は、出力(例えば、片耳若しくは両耳用ヘッドホン)及び入力(例えば、マイクロホン)の両方を有するヘッドセットのような、リムーバブルオーディオ入力/出力周辺機器との間のインタフェースを提供する。
I/Oサブシステム106は、タッチスクリーン112及び他の入力制御デバイス116のようなデバイス100上の入力/出力周辺機器を、周辺機器インタフェース118に結合する。I/Oサブシステム106は、ディスプレイコントローラ156、及び、他の入力又は制御デバイスのための1つ又は複数の入力コントローラ160を含んでよい。1つ又は複数の入力コントローラ160は、電気信号を他の入力又は制御デバイス116から受信/に送信する。他の入力制御デバイス116は、物理的ボタン(例えば、プッシュボタン、ロッカボタン、等)、ダイアル、スライダスイッチ、ジョイスティック、クリックホイール、等を含んでよい。いくつかの代わりの実施形態では、入力コントローラ(複数可)160が、以下の、すなわち、キーボード、赤外線ポート、USBポート、及び、マウスのようなポインタデバイスのいずれかに結合されて(又は結合されなくて)よい。1つ又は複数のボタン(例えば、図2の208)は、スピーカ111及び/又はマイクロホン113の音量制御のためのアップ/ダウンボタンを含んでよい。1つ又は複数のボタンは、プッシュボタン(例えば、図2の206)を含んでよい。
タッチ感知ディスプレイ112は、デバイス及びユーザ間の入力インタフェース及び出力インタフェースを提供する。ディスプレイコントローラ156は、電気信号をタッチスクリーン112から受信及び/又はタッチスクリーン112に送信する。タッチスクリーン112は、視覚的出力をユーザに表示する。視覚的出力は、グラフィックス、テキスト、アイコン、ビデオ、及びそれらの任意の組み合わせ(まとめて「グラフィックス」と呼ばれる)を含んでよい。いくつかの実施形態では、視覚的出力の一部又はすべては、ユーザインタフェースオブジェクトに対応してよい。
タッチスクリーン112は、触覚に基づく及び/又は触知性の接触に基づくユーザからの入力を受け付けるタッチ感知表面、センサ、又はセンサの組を有する。タッチスクリーン112及びディスプレイコントローラ156は、(任意の関連するモジュール、及び/又は、メモリ102内の命令の組と一緒に)タッチスクリーン112上の接触(及び、接触の任意の動き又は中断)を検出し、検出された接触を、タッチスクリーン112上に表示されるユーザインタフェースオブジェクト(例えば、1つ又は複数のソフトキー、アイコン、ウェブページ、又は画像)との相互作用に変換する。例示的な実施形態では、タッチスクリーン112及びユーザ間の接触点は、ユーザの指に対応する。
タッチスクリーン112は、他のディスプレイ技術が他の実施形態では使用され得るが、LCD(液晶ディスプレイ)技術、LPD(発光ポリマディスプレイ)技術、又はLED(発光ダイオード)技術を使用してよい。タッチスクリーン112及びディスプレイコントローラ156は、タッチスクリーン112との1つ又は複数の接点を決定するための容量性、抵抗性、赤外線、及び表面弾性波技術、並びに、近接センサアレイ、又は他の要素を含むがこれらに限定されない、現在既知の又は将来開発される複数のタッチ感知技術のいずれかを使用して、接触及びそれらの任意の動き又は中断を検出することができる。例示的な実施形態では、カリフォルニア州、クパチーノのアップル社からのiPhone(登録商標)、iPod Touch(登録商標)、及びiPad(登録商標)で見られるように、投影型相互キャパシタンス検知技術が使用される。
タッチスクリーン112は、100dpiを超えるビデオ解像度を有してよい。いくつかの実施形態では、タッチスクリーンは、約160dpiのビデオ解像度を有する。ユーザは、スタイラス、指、等のような任意の適切な物体又は付属物を使用して、タッチスクリーン112と接触することができる。いくつかの実施形態では、ユーザインタフェースは、指ベースの接触及びジェスチャで主に動作するように設計され、指ベースの接触及びジェスチャは、タッチスクリーン上の指のより大きい接触面積のため、スタイラスベースの入力より正確ではない可能性がある。いくつかの実施形態では、デバイスは、粗い指ベースの入力を、正確なポインタ/カーソル位置、又は、ユーザが所望の操作を行うためのコマンドに翻訳する。
いくつかの実施形態では、タッチスクリーンに加えて、デバイス100は、特定の機能を活性化又は不活性化するためのタッチパッド(図示せず)を含んでよい。いくつかの実施形態では、タッチパッドは、タッチスクリーンとは異なり視覚的出力を表示しない、デバイスのタッチ感知領域である。タッチパッドは、タッチスクリーン112とは別個の、又は、タッチスクリーンによって形成されるタッチ感知表面の延長部である、タッチ感知表面であってよい。
デバイス100は、種々の構成要素に給電する電源システム162も含む。電源システム162は、電力管理システム、1つ又は複数の電源(例えば、バッテリ、交流電流(AC))、充電システム、停電検出回路、電力変換器又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、並びに、携帯型デバイスの電力の発生、管理、及び配電に関連する任意の他の構成要素を含んでよい。
デバイス100は、1つ又は複数の光学センサ164を含んでもよい。図1Aは、I/Oサブシステム106内の光学センサコントローラ158に結合された光学センサを示す。光学センサ164は、電荷結合素子(CCD)又は相補型金属酸化膜半導体(CMOS)フォトトランジスタを含んでよい。光学センサ164は、1つ又は複数のレンズを介して投影された環境からの光を受光し、光を、画像を表すデータに変換する。撮像モジュール143(カメラモジュールとも呼ばれる)と協働して、光学センサ164は、静止画像又はビデオを取り込むことができる。いくつかの実施形態では、光学センサは、タッチスクリーンディスプレイが静止及び/又はビデオ画像取得のためのビューファインダとして使用され得るように、デバイスの前面のタッチスクリーンディスプレイ112の反対側のデバイス100の背面に配置される。いくつかの実施形態では、ユーザがタッチスクリーンディスプレイ上の他のビデオ会議参加者を見ながら、ビデオ会議のためにユーザの画像を得ることができるように、他の光学センサがデバイスの前面に配置される。
デバイス100は、1つ又は複数の近接センサ166を含んでもよい。図1Aは、周辺機器インタフェース118に結合された近接センサ166を示す。代わりに、近接センサ166は、I/Oサブシステム106内の入力コントローラ160に結合されてもよい。いくつかの実施形態では、近接センサは、多機能デバイスがユーザの耳の近くに配置されている場合(例えば、ユーザが通話している場合)、タッチスクリーン112をターンオフし、無効にする。
デバイス100は、1つ又は複数の加速度計168を含んでもよい。図1Aは、周辺機器インタフェース118に結合された加速度計168を示す。代わりに、加速度計168は、I/Oサブシステム106内の入力コントローラ160に結合されてもよい。いくつかの実施形態では、1つ又は複数の加速度計から受信したデータの解析に基づいて、情報がタッチスクリーンディスプレイ上に縦表示又は横表示で表示される。デバイス100は、加速度計(複数可)168に加えて、デバイス100の位置及び向き(例えば、縦又は横)に関する情報を得るための磁力計(図示せず)及びGPS(GLONASS、又は他のグローバルナビゲーションシステム)受信機(図示せず)を任意に含む。
いくつかの実施形態では、メモリ102に格納されるソフトウェア構成要素は、オペレーティングシステム126、通信モジュール(又は、命令の組)128、接触/動きモジュール(又は、命令の組)130、グラフィックスモジュール(又は、命令の組)132、テキスト入力モジュール(又は、命令の組)134、全地球測位システム(GPS)モジュール(又は、命令の組)135、及び、アプリケーション(又は、命令の組)136を含む。さらに、いくつかの実施形態では、メモリ102は、図1A及び3に示すように、デバイス/グローバル内部状態157を格納する。デバイス/グローバル内部状態157は、もしあればどのアプリケーションが現在アクティブであるかを示すアクティブアプリケーション状態と、どんなアプリケーション、表示、又は情報がタッチスクリーンディスプレイ112の種々の領域を占めるかを示すディスプレイ状態と、デバイスの種々のセンサ及び入力制御デバイス116から得られた情報を含むセンサ状態と、デバイスの位置及び/又は姿勢に関する位置情報の1つ又は複数を含む。
オペレーティングシステム126(例えば、Darwin(登録商標)、RTXC(登録商標)、LINUX(登録商標)、UNIX(登録商標)、OS X(登録商標)、WINDOWS(登録商標)、又は、VxWorks(登録商標)のような埋込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、記憶デバイス制御、電力管理、等)を制御及び管理するための種々のソフトウェア構成要素及び/又はドライバを含み、種々のハードウェア及びソフトウェア構成要素間の通信を容易にする。
通信モジュール128は、1つ又は複数の外部ポート124を介して他のデバイスとの通信を容易にし、また、RF回路網108及び/又は外部ポート124によって受信されたデータを処理するための種々のソフトウェア構成要素を含む。外部ポート124(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)、等)は、他のデバイスに直接、又は、ネットワーク(例えば、インターネット、無線LAN、等)を介して間接的に結合するように適合される。いくつかの実施形態では、外部ポートは、iPod(アップル社の商標)デバイス上で使用される30ピンコネクタと同じ、若しくは同様の、及び/又はこれと互換性のある多ピン(例えば、30ピン)コネクタである。
接触/動きモジュール130は、タッチスクリーン112(ディスプレイコントローラ156と協働して)及び他のタッチ感知デバイス(例えば、タッチパッド又は物理的クリックホイール)との接触を検出することができる。接触/動きモジュール130は、接触が起こったかどうかを決定する(例えば、フィンガーダウンイベントを検出する)、接点の動きがあったかどうかを決定し、タッチ感知表面を横切る移動を追跡する(例えば、1つ又は複数のフィンガードラッグイベントを検出する)、及び、接触が中断されたかどうかを決定する(例えば、フィンガーアップイベント、又は接触の中断を検出する)、等の、接触の検出に関連する種々の動作を行うための種々のソフトウェア構成要素を含む。接触/動きモジュール130は、タッチ感知表面から接触データを受信する。一連の接触データによって表される接点の移動の決定は、接点の速さ(大きさ)、速度(大きさ及び方向)、及び/又は加速度(大きさ及び/又は方向の変化)の決定を含んでよい。これらの動作を、単一の接触(例えば、1本の指の接触)又は複数の同時接触(例えば、「マルチタッチ」/複数の指の接触)に適用することができる。いくつかの実施形態では、接触/動きモジュール130及びディスプレイコントローラ156は、タッチパッド上の接触を検出する。
接触/動きモジュール130は、ユーザによるジェスチャ入力を検出することができる。タッチ感知表面上の異なるジェスチャは、異なる接触パターンを有する。したがって、ジェスチャを、特定の接触パターンを検出することによって検出することができる。例えば、フィンガータップジェスチャの検出は、(例えば、アイコンの位置での)フィンガーダウンイベントと同じ位置(又は、実質的に同じ位置)でのフィンガーアップ(リフトオフ)イベントの検出が続く、フィンガーダウンイベントの検出を含む。他の例として、タッチ感知表面上のフィンガースワイプジェスチャの検出は、1つ又は複数のフィンガードラッグイベントの検出が続き、その後、フィンガーアップ(リフトオフ)イベントの検出が続く、フィンガーダウンイベントの検出を含む。
グラフィックスモジュール132は、表示されるグラフィックスの輝度を変化させるための構成要素を含む、タッチスクリーン112又は他のディスプレイ上にグラフィックスをレンダリングし、表示させるための種々の既知のソフトウェア構成要素を含む。本明細書で使用されるとき、用語「グラフィックス」は、テキスト、ウェブページ、(ソフトキーを含むユーザインタフェースオブジェクトのような)アイコン、デジタル画像、ビデオ、アニメーション、等を無制限に含む、ユーザに表示することができる任意のオブジェクトを含む。
いくつかの実施形態では、グラフィックスモジュール132は、使用されるべきグラフィックスを表すデータを格納する。各グラフィックスには、対応するコードを割り当てることができる。グラフィックスモジュール132は、アプリケーション等から、必要なら座標データ及び他のグラフィック特性データと共に、表示されるべきグラフィックスを特定する1つ又は複数のコードを受信し、その後、ディスプレイコントローラ156に出力するためにスクリーン画像データを生成する。
グラフィックスモジュール132の構成要素であってよいテキスト入力モジュール134は、種々のアプリケーション(例えば、連絡先137、電子メール140、IM141、ブラウザ147、及び、テキスト入力を必要とする任意の他のアプリケーション)でテキストを入力するためのソフトキーボードを提供する。
GPSモジュール135は、デバイスの位置を決定し、種々のアプリケーションで使用するために(例えば、位置に基づくダイアリングで使用するために電話138に、画像/ビデオメタデータとしてカメラ143に、並びに、天気ウィジェット、ローカルイエローページウィジェット、及び、地図/ナビゲーションウィジェットのような位置ベースのサービスを提供するアプリケーションに)この情報を提供する。
アプリケーション136は、以下のモジュール(又は命令の組)、すなわち、
・連絡先モジュール137(時には、アドレス帳又は連絡先リストと呼ばれる)、
・電話モジュール138、
・ビデオ会議モジュール139、
・電子メールクライアントモジュール140、
・インスタントメッセージング(IM)モジュール141、
・書籍モジュール142、
・静止画及び/又はビデオ画像用カメラモジュール143、
・画像管理モジュール144、
・ブラウザモジュール147、
・カレンダモジュール148、
・天気ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、目覚まし時計ウィジェット149−4、辞書ウィジェット149−5、及び、ユーザによって得られる他のウィジェット、並びに、ユーザが作成したウィジェット149−6の1つ又は複数を含んでよいウィジェットモジュール149、
・ユーザ生成ウィジェット149−6を生成するためのウィジェット作成モジュール150,
・検索モジュール151、
・ビデオプレーヤモジュール及び音楽プレーヤモジュールで構成されてよいビデオ及び音楽プレーヤモジュール152、
・ノートモジュール153、
・地図モジュール154、及び/又は、
・オンラインビデオモジュール155、
又は、これらのサブセット若しくはスーパセットを含んでよい。
メモリ102に格納されてよい他のアプリケーション136の例は、他の文書処理アプリケーション、他の画像編集アプリケーション、描画アプリケーション、プレゼンテーションアプリケーション、JAVA(登録商標)対応アプリケーション、暗号化、デジタル著作権管理、音声認識、及び、音声複製を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、連絡先モジュール137は、アドレス帳への名前(複数可)の追加、アドレス帳からの名前(複数可)の削除、電話番号(複数可)、電子メールアドレス(複数可)、物理的な所在地(複数可)、又は他の情報の名前との関連付け、画像の名前との関連付け、名前の分類及び並べ替え、電話138、ビデオ会議139、電子メール140、又はIM141等による通信を開始及び/又は容易にする電話番号又は電子メールアドレスの提供、等を含む、(例えば、メモリ102又はメモリ370内の連絡先モジュール137のアプリケーション内部状態192に格納された)アドレス帳又は連絡先リストを管理するために使用されてよい
RF回路網108、オーディオ回路網110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及び、テキスト入力モジュール134と協働して、電話モジュール138は、電話番号に対応する一連の文字を入力するため、アドレス帳137内の1つ又は複数の電話番号にアクセスするため、入力されている電話番号を変更するため、個々の電話番号をダイアルするため、会話を行うため、及び、会話が完了したときに接続を経つ又は電話を切るために使用されてよい。上述したように、無線通信は、複数の通信標準、プロトコル、及び技術のいずれかを使用することができる。
RF回路網108、オーディオ回路網110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と協働して、ビデオ会議モジュール139は、ユーザ命令にしたがってユーザ及び1人又は複数の他の参加者間のビデオ会議を開始し、行い、終了するために実行可能な命令を含む。
RF回路網108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、電子メールクライアントモジュール140は、ユーザ命令に応じて電子メールを形成するため、送信するため、受信するため、及び、管理するために実行可能な命令を含む。画像管理モジュール144と協働して、電子メールクライアントモジュール140は、カメラモジュール143で撮影した静止画又はビデオ画像を含む電子メールを形成し、送信するのを非常に簡単にする。
RF回路網108、タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、インスタントメッセージングモジュール141は、インスタントメッセージに対応する一連の文字を入力するため、前に入力された文字を変更するため、(例えば、電話技術ベースのインスタントメッセージのためのショートメッセージサービス(SMS)若しくはマルチメディアメッセージサービス(MMS)プロトコルを使用して、又は、インターネットベースのインスタントメッセージのためのXMPP、SIMPLE、若しくはIMPSを使用して)個々のインスタントメッセージを送信するため、インスタントメッセージを受信するため、及び、受信したインスタントメッセージを見るために実行可能な命令を含む。いくつかの実施形態では、送信された及び/又は受信されたインスタントメッセージは、MMS及び/又はエンハンスドメッセージングサービス(EMS)でサポートされるグラフィックス、写真、オーディオファイル、ビデオファイル、及び/又は他の添付ファイルを含んでよい。本明細書で使用されるとき、「インスタントメッセージング」は、電話技術ベースのメッセージ(例えば、SMS又はMMSを使用して送信されるメッセージ)、及び、インターネットベースのメッセージ(例えば、XMPP、SIMPLE、又はIMPSを使用して送信されるメッセージ)の両方をさす。
RF回路網108、オーディオ回路網110、スピーカ111、マイクロホン113、タッチスクリーン112、ディスプレイコントローラ156、光学センサ164、光学センサコントローラ158、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、連絡先リスト137、及び電話モジュール138と協働して、書籍モジュール142は、ユーザ命令にしたがって、注釈を表示し、電子書籍(例えば、テキストブック)、雑誌、新聞、又は、他のデジタル出版物を、ユーザ及び1人又は複数の他の参加者間で共有するために実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、光学センサ(複数可)164、光学センサコントローラ158、接触モジュール130、グラフィックスモジュール132、及び画像管理モジュール144と協働して、カメラモジュール143は、静止画若しくはビデオ(ビデオストリームを含む)を取り込むため、それらをメモリ102に格納するため、静止画若しくはビデオの特性を変更するため、又は、静止画若しくはビデオをメモリ102から削除するために実行可能な命令を含む。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、及びカメラモジュール143と協働して、画像管理モジュール144は、静止画及び/又はビデオ画像を、配置するため、変更(例えば、編集)するため、又は他の方法で操作するため、ラベル付けするため、消去するため、表現するため(例えば、デジタルスライドショー又はアルバムで)、並びに、格納するために実行可能な命令を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、ブラウザモジュール147は、ユーザ命令に従って、ウェブページ又はその一部、並びに、添付ファイル及びウェブページにリンクされた他のファイルの検索、リンク付け、受信、及び表示を含む、インターネットを閲覧するために実行可能な命令を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール148と協働して、カレンダモジュール148は、ユーザ命令にしたがって、カレンダ及びカレンダに関連付けられたデータ(例えば、カレンダエントリ、トゥドゥリスト等)を作成するため、表示するため、変更するため、及び格納するために実行可能な命令を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と協働して、ウィジェットモジュール149は、ユーザによってダウンロードされ、使用され得るミニアプリケーション(例えば、天気ウィジェット149−1、株価ウィジェット149−2、計算機ウィジェット149−3、目覚まし時計ウィジェット149−4、及び、辞書ウィジェット149−5)、又は、ユーザによって作成されたミニアプリケーション(例えば、ユーザが作成したウィジェット149−6)である。いくつかの実施形態では、ウィジェットは、HTML(ハイパーテキストマークアップ言語)ファイル、CSS(カスケーディングスタイルシート)ファイル、及び、JavaScript(登録商標)ファイルを含む。いくつかの実施形態では、ウィジェットは、XML(拡張可能マークアップ言語)ファイル、及び、JavaScript(登録商標)ファイル(例えば、Yahoo!(登録商標)ウィジェット)を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、及びブラウザモジュール147と協働して、ウィジェット作成モジュール150は、ウィジェットを作成する(例えば、ウェブページのユーザが指定した部分をウィジェットに変える)ためにユーザによって使用されてよい。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、検索モジュール151は、ユーザ命令にしたがって、1つ又は複数の検索条件(例えば、1つ又は複数のユーザが指定した検索語)に一致する、メモリ102内のテキスト、音楽、音、画像、ビデオ、及び/又は、他のファイルを検索するために実行可能な命令を含む。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、オーディオ回路網110、スピーカ111、RF回路網108、及びブラウザモジュール147と協働して、ビデオ及び音楽プレーヤモジュール152は、ユーザが、MP3又はAACファイルのような1つ又は複数のファイルフォーマットで格納された記録された音楽又は他の音声ファイルをダウンロードし、再生することを可能にする実行可能な命令と、ビデオを(例えば、タッチスクリーン112、又は、外部ポート124を介して外部から接続されたディスプレイ上に)表示し、表現し、又は他の方法で再生するために実行可能な命令とを含む。いくつかの実施形態では、デバイス100は、iPod(アップル社の商標)のようなMP3プレーヤの機能を含んでよい。
タッチスクリーン112、ディスプレイコントローラ156、接触モジュール130、グラフィックスモジュール132、及びテキスト入力モジュール134と協働して、ノートモジュール153は、ユーザ命令にしたがって、ノート、トゥドゥリスト等を形成し、管理するために実行可能な命令を含む。
RF回路網108、タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、テキスト入力モジュール134、GPSモジュール135、及びブラウザモジュール147と協働して、地図モジュール154は、ユーザ命令にしたがって、地図及び地図に関連付けられたデータ(例えば、運転方向、特定の場所又はその近くの店舗及び興味のある所のデータ、及び他の位置ベースのデータ)を受信し、表示し、変更し、格納するために使用されてよい。
タッチスクリーン112、ディスプレイシステムコントローラ156、接触モジュール130、グラフィックスモジュール132、オーディオ回路網110、スピーカ111、RF回路網108、テキスト入力モジュール134、電子メールクライアントモジュール140、及びブラウザモジュール147と協働して、オンラインビデオモジュール155は、ユーザが、H.264のような1つ又は複数のファイルフォーマットのオンラインビデオにアクセスし、これを閲覧し、(例えば、ストリーミング及び/又はダウンロードによって)受信し、(例えば、タッチスクリーン上、又は、外部ポート124を介して外部から接続されたディスプレイ上で)再生し、特定のオンラインビデオへのリンクを有する電子メールを送信し、H.264等のような、他の方法で1つ又は複数のファイルフォーマットでオンラインビデオを管理することを可能にする命令を含む。いくつかの実施形態では、特定のオンラインビデオへのリンクを送信するために、電子メールクライアントモジュール140ではなく、インスタントメッセージングモジュール141が使用される。
上記で特定したモジュール及びアプリケーションの各々は、上述した1つ又は複数の機能、並びに、本明細書に記載の方法(例えば、コンピュータ実装方法、及び、本明細書に記載の他の情報処理方法)を実行するための実行可能な命令の組に対応する。これらのモジュール(すなわち、命令の組)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、これらのモジュールの種々のサブセットが組み合されてよく、又は種々の実施形態で他の方法で再配置されてよい。いくつかの実施形態では、メモリ102は、上記で特定したモジュール及びデータ構造のサブセットを格納してよい。さらに、メモリ102は、上述していない追加のモジュール及びデータ構造を格納してよい。
いくつかの実施形態では、デバイス100は、デバイスでの機能の予め定義された組の動作が、タッチスクリーン及び/又はタッチパッドを介して独占的に行われるデバイスである。タッチスクリーン及び/又はタッチパッドを、デバイス100の操作のための主要な入力制御デバイスとして使用することによって、デバイス100の(プッシュボタン、ダイアル、等のような)物理的な入力制御デバイスの数を減らすことができる。
タッチスクリーン及び/又はタッチパッドを介して独占的に行うことができる機能の予め定義された組は、ユーザインタフェース間のナビゲーションを含む。いくつかの実施形態では、タッチパッドは、ユーザによって接触されると、デバイス100を、デバイス100に表示することができる任意のユーザインタフェースからメイン、ホーム、又はルートメニューにナビゲートする。このような実施形態では、タッチパッドを「メニューボタン」と呼ぶことができる。いくつかの他の実施形態では、メニューボタンは、物理的プッシュボタン、又は、タッチパッドの代わりの他の物理的入力制御デバイスであってよい。
図1Cは、いくつかの実施形態によるイベント処理のための例示的な構成要素を示すブロック図である。いくつかの実施形態では、メモリ102(図1A及び図1B中)又は370(図3)は、イベントソータ170(例えば、オペレーティングシステム126内)、及び、個々のアプリケーション136−1(例えば、前述のアプリケーション137−151、155、380−390のいずれか)を含む。
イベントソータ170は、イベント情報を受信し、イベント情報を送達するアプリケーション136−1及びアプリケーション136−1のアプリケーションビュー191を決定する。イベントソータ170は、イベントモニタ171及びイベントディスパッチャモジュール174を含む。いくつかの実施形態では、アプリケーション136−1はアプリケーション内部状態192を含み、アプリケーション内部状態192は、アプリケーションがアクティブ又は実行中である場合、タッチ感知ディスプレイ112上に表示された現在のアプリケーションビュー(複数可)を示す。いくつかの実施形態では、デバイス/グローバル内部状態157は、イベントソータ170によって、どのアプリケーション(複数可)が現在アクティブであるかを決定するために使用され、アプリケーション内部状態192は、イベントソータ170によって、イベント情報を送達するアプリケーションビュー191を決定するために使用される。
いくつかの実施形態では、アプリケーション内部状態192は、アプリケーション136−1が実行を再開するときに使用される再開情報、アプリケーション136−1によって表示されている又は表示の準備ができている情報を示すユーザインタフェース状態情報、ユーザがアプリケーション136−1の前の状態又はビューに戻ることを可能にするための状態キュー、及び、ユーザによって行われた前の行動のリドゥ/アンドゥキューの1つ又は複数のような追加の情報を含む。
イベントモニタ171は、周辺機器インタフェース118からイベント情報を受信する。イベント情報は、サブイベント(例えば、マルチタッチジェスチャの一部としてのタッチ感知ディスプレイ112上のユーザのタッチ)に関する情報を含む。周辺機器インタフェース118は、I/Oサブシステム106、又は、近接センサ166、加速度計(複数可)168及び/若しくは(オーディオ回路網110を介して)マイクロホン113のようなセンサから受信した情報を送信する。周辺機器118がI/Oサブシステム106から受信する情報は、タッチ感知ディスプレイ112又はタッチ感知表面からの情報を含む。
いくつかの実施形態では、イベントモニタ171は、予め決められた間隔で周辺機器インタフェース118に要求を送信する。これに応じて、周辺機器インタフェース118はイベント情報を送信する。他の実施形態では、周辺機器インタフェース118は、重要なイベント(例えば、予め決められたノイズしきい値を超える及び/又は予め決められた持続時間を超える入力の受信)が存在する場合にのみ、イベント情報を送信する。
いくつかの実施形態では、イベントソータ170は、ヒットビュー決定モジュール172及び/又はアクティブイベント認識器決定モジュール173も含む。
ヒットビュー決定モジュール172は、タッチ感知ディスプレイ112が複数のビューを表示するとき、1つ又は複数のビュー内でサブイベントが行われた場所を決定するためのソフトウェア手順を提供する。ビューは、ディスプレイ上でユーザが見ることができるコントロール及び他の要素で構成される。
アプリケーションに関連するユーザインタフェースの他の態様は、本明細書では時にはアプリケーションビュー又はユーザインタフェースウィンドウと呼ばれるビューの組であり、ビューの組では、情報が表示され、タッチベースのジェスチャが生じる。タッチが検出される(個々のアプリケーションの)アプリケーションビューは、アプリケーションのプログラム又はビュー階層内のプログラムのレベルに対応してよい。例えば、タッチが検出される最低レベルのビューをヒットビューと呼ぶことができ、適切な入力として認識されるイベントの組は、タッチベースのジェスチャを開始する最初のタッチのヒットビューに少なくとも部分的に基づいて決定されてよい。
ヒットビュー決定モジュール172は、タッチベースのジェスチャのサブイベントに関連する情報を受信する。アプリケーションが階層で組織される複数のビューを有する場合、ヒットビュー決定モジュール172は、サブイベントを処理すべき階層内の最下位ビューとしてヒットビューを識別する。大部分の環境では、ヒットビューは、開始サブイベント(すなわち、イベント又は潜在的なイベントを形成するサブイベントのシーケンス内の最初のサブイベント)が発生する最低レベルのビューである。ヒットビューがヒットビュー決定モジュールによって識別されると、ヒットビューは、典型的には、これについてヒットビューとして識別されたのと同じタッチ又は入力源に関連するすべてのサブイベントを受信する。
アクティブイベント認識器決定モジュール173は、ビュー階層内のどのビュー又は複数のビューがサブイベントの特定のシーケンスを受信すべきかを決定する。いくつかの実施形態では、アクティブイベント認識器決定モジュール173は、ヒットビューのみがサブイベントの特定のシーケンスを受信すべきであることを決定する。他の実施形態では、アクティブイベント認識器決定モジュール173は、サブイベントの物理的位置を含むすべてのビューがアクティブに関係するビューであることを決定し、したがって、すべてのアクティブに関係するビューが、サブイベントの特定のシーケンスを受信すべきであることを決定する。他の実施形態では、タッチサブイベントが1つの特定のビューに関係付けられた領域に完全に限定される場合でも、階層内のより上位のビューは、依然としてアクティブに関係するビューとして残ることになる。
イベントディスパッチャモジュール174は、イベント情報をイベント認識器(例えば、イベント認識器180)にディスパッチする。アクティブイベント認識器決定モジュール173を含む実施形態では、イベントディスパッチャモジュール174は、イベント情報を、アクティブイベント認識器決定モジュール173によって決定されたイベント認識器に送達する。いくつかの実施形態では、イベントディスパッチャモジュール174は、イベントキューに、個々のイベント受信機モジュール182によって取得されたイベント情報を格納する。
いくつかの実施形態では、オペレーティングシステム126はイベントソータ170を含む。代わりに、アプリケーション136−1は、イベントソータ170を含む。さらに他の実施形態では、イベントソータ170は、独立型モジュール、又は、接触/動きモジュール130のような、メモリ102に格納される他のモジュールの一部である。
いくつかの実施形態では、アプリケーション136−1は、複数のイベントハンドラ190及び1つ又は複数のアプリケーションビュー191を含み、イベントハンドラ190の各々は、アプリケーションのユーザインタフェースの個々のビュー内で発生するタッチイベントを処理するための命令を含む。アプリケーション136−1の各アプリケーションビュー191は、1つ又は複数のイベント認識器180を含む。典型的には、個々のアプリケーションビュー191は、複数のイベント認識器180を含む。他の実施形態では、1つ又は複数のイベント認識器180は、ユーザインタフェースキット(図示せず)、又は、アプリケーション136−1が方法及び他のプロパティを継承するより高いレベルのオブジェクトのような別個のモジュールの一部である。いくつかの実施形態では、個々のイベントハンドラ190は、データアップデータ176、オブジェクトアップデータ177、GUIアップデータ178、及び/又は、イベントソータ170から受信されたイベントデータ179の1つ又は複数を含む。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176、オブジェクトアップデータ177、又はGUIアップデータ178を使用する又は呼び出してよい。代わりに、1つ又は複数のアプリケーションビュー191は、1つ又は複数の個々のイベントハンドラ190を含む。また、いくつかの実施形態では、1つ又は複数のデータアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178が、個々のアプリケーションビュー191に含まれる。
個々のイベント認識器180は、イベントソータ170からイベント情報(例えば、イベントデータ179)を受信し、イベント情報からイベントを識別する。イベント認識器180は、イベント受信機182及びイベント比較器184を含む。いくつかの実施形態では、イベント認識器180は、また、メタデータ183及びイベント送達命令188(サブイベント送達命令を含んでよい)の少なくともサブセットを含む。
イベント受信機182は、イベントソータ170からイベント情報を受信する。イベント情報は、サブイベント、例えば、タッチ又はタッチの動きに関する情報を含む。サブイベントに応じて、イベント情報は、サブイベントの位置のような追加の情報も含む。サブイベントがタッチの動きに関係する場合、イベント情報は、サブイベントの速度及び方向を含んでもよい。いくつかの実施形態では、イベントは、ある方向から他の方向への(例えば、縦向きから横向きへの、又はその逆の)デバイスの回転を含み、イベント情報は、デバイスの現在の向き(デバイス姿勢とも呼ばれる)に関する対応する情報を含む。
イベント比較器184は、イベント情報を予め定義されたイベント又はサブイベント定義と比較し、比較に基づいて、イベント又はサブイベントを決定するか、イベント又はサブイベントの状態を決定又は更新する。いくつかの実施形態では、イベント比較器184は、イベント定義186を含む。イベント定義186は、例えば、イベント1(187−1)イベント2(187−2)、等のイベントの定義(例えばサブイベントの予め定義されたシーケンス)を含む。いくつかの実施形態では、イベント187内のサブイベントは、例えば、タッチ開始、タッチ終了、タッチの動き、タッチ取り消し、及び複数のタッチを含む。一例では、イベント1(187−1)に関する定義は、表示されたオブジェクト上のダブルタップである。ダブルタップは、例えば、予め決められたフェーズについての表示されたオブジェクト上の第1のタッチ(タッチ開始)、予め決められたフェーズでの第1のリフトオフ(タッチ終了)、予め決められたフェーズでの表示されたオブジェクト上の第2のタッチ(タッチ開始)、及び、予め決められたフェーズでの第2のリフトオフ(タッチ終了)を含む。他の例では、イベント2(187−2)に関する定義は、表示されたオブジェクト上のドラッグである。ドラッグは、例えば、予め決められたフェーズでの表示されたオブジェクト上のタッチ(又は、接触)、タッチ感知ディスプレイ112を横切るタッチの移動、及び、タッチのリフトオフ(タッチ終了)を含む。いくつかの実施形態では、イベントは、1つ又は複数の関連するイベントハンドラ190に関する情報も含む。
いくつかの実施形態では、イベント定義187は、個々のユーザインタフェースオブジェクトに関するイベントの定義を含む。いくつかの実施形態では、イベント比較器184は、どのユーザインタフェースオブジェクトがサブイベントに関連付けられているかを決定するためにヒットテストを行う。例えば、3つのユーザインタフェースオブジェクトがタッチ感知ディスプレイ112上に表示されるアプリケーションビューでは、タッチ感知ディスプレイ112上でタッチが検出されると、イベント比較器184は、3つのユーザインタフェースオブジェクトのうちのどれがタッチ(サブイベント)に関連付けられているかを決定するためにヒットテストを行う。各々の表示されたオブジェクトが個々のイベントハンドラ190に関連付けられている場合、イベント比較器は、どのイベントハンドラ190が活性化されるべきかを決定するために、ヒットテストの結果を使用する。例えば、イベント比較器184は、ヒットテストをトリガするサブイベント及びオブジェクトに関連付けられたイベントハンドラを選択する。
いくつかの実施形態では、個々のイベントに関する定義187は、また、サブイベントのシーケンスがイベント認識器のイベント形式に対応するか又はしないかが決定された後になるまでイベント情報の送達を遅延させる遅延作用を含む。
一連のサブイベントがイベント定義186内のイベントのいずれにも一致しないことを個々のイベント認識器180が決定すると、個々のイベント認識器180は、イベント不可能、イベント失敗、又は、イベント終了状態を入力し、その後、タッチベースのジェスチャの後続のサブイベントを無視する。この状況では、もしあればヒットビューに関してアクティブなままである他のイベント認識器は、進行中のタッチベースのジェスチャのサブイベントを追跡し、処理し続ける。
いくつかの実施形態では、個々のイベント認識器180は、イベント送達システムがアクティブに関係するイベント認識器へのサブイベント送達をどのように行うべきかを示す設定可能なプロパティ、フラグ、及び/又はリストを有するメタデータ183を含む。いくつかの実施形態では、メタデータ183は、イベント認識器が互いにどのように相互作用することができるかを示す設定可能なプロパティ、フラグ、及び/又はリストを含む。いくつかの実施形態では、メタデータ183は、サブイベントがビュー又はプログラムの階層内の異なるレベルに送達されるかどうかを示す設定可能なプロパティ、フラグ、及び/又はリストを含む。
いくつかの実施形態では、個々のイベント認識器180は、イベントの1つ又は複数の特定のサブイベントが認識されると、イベントに関連付けられたイベントハンドラ190を活性化する。いくつかの実施形態では、個々のイベント認識器180は、イベントに関連付けられたイベント情報をイベントハンドラ190に送達する。イベントハンドラ190の活性化は、個々のヒットビューへのサブイベントの送信(及び、延期した送信)とは区別される。いくつかの実施形態では、イベント認識器180は、認識されたイベントに関連付けられたフラグをスローし、フラグに関連付けられたイベントハンドラ190は、フラグをキャッチし、予め定義された処理を実行する。
いくつかの実施形態では、イベント送達命令188は、イベントハンドラを活性化させることなくサブイベントに関するイベント情報を送達するサブイベント送達命令を含む。代わりに、サブイベント送達命令は、イベント情報を、一連のサブイベントに関連付けられたイベントハンドラに、又は、アクティブに関係するビューに送達する。一連のサブイベントに、又は、アクティブに関係するビューに関連付けられたイベントハンドラは、イベント情報を受信し、予め決められた処理を実行する。
いくつかの実施形態では、データアップデータ176は、アプリケーション136−1で使用されるデータを作成し、更新する。例えば、データアップデータ176は、連絡先モジュール137で使用される電話番号を更新し、又は、ビデオプレーヤモジュール145で使用されるビデオファイルを格納する。いくつかの実施形態では、オブジェクトアップデータ177は、アプリケーション136−1で使用されるオブジェクトを作成し、更新する。例えば、オブジェクトアップデータ176は、新たなユーザインタフェースオブジェクトを作成し、又は、ユーザインタフェースオブジェクトの位置を更新する。GUIアップデータ178は、GUIを更新する。例えば、GUIアップデータ178は、表示情報を準備し、それを、タッチ感知ディスプレイ上に表示するためにグラフィックスモジュール132に送信する。
いくつかの実施形態では、イベントハンドラ(複数可)190は、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178へのアクセスを含む又は有する。いくつかの実施形態では、データアップデータ176、オブジェクトアップデータ177、及びGUIアップデータ178は、個々のアプリケーション136−1又はアプリケーションビュー191の単一のモジュール内に含まれる。他の実施形態では、それらは2つ以上のソフトウェアモジュールに含まれる。
タッチ感知ディスプレイ上のユーザのタッチのイベント処理に関する前述の議論は、そのすべてがタッチスクリーン上で開始されるわけではない、入力デバイスによって多機能デバイス100を動作させるためのユーザの入力の他の形態、例えば、認識すべきイベントを定義するサブイベントに対応する入力として利用することができる、単一の又は複数のキーボード押下又は保持を伴う又は伴わないマウスの動きの調整及びマウスボタンの押下、タッチパッド上のユーザのタップ、ドラッグ、スクロール等の動き、ペンスタイラス入力、デバイスの動き、口頭指示、検出された眼球の動き、バイオメトリック入力、及び/又はそれらの任意の組み合わせにも適合することが理解されるべきである。
図2は、いくつかの実施形態によるタッチスクリーン112を有する携帯型多機能デバイス100を示す。タッチスクリーンは、ユーザインタフェース(UI)200内に1つ又は複数のグラフィックスを表示することができる。この実施形態、並びに、後述する他の実施形態では、ユーザは、グラフィックス上で、例えば、1本又は複数の指202(図には縮尺通りに描かれていない)又は1つ又は複数のスタイラス203(図には縮尺通りに描かれていない)でジェスチャを行うことによって、1つ又は複数のグラフィックスを選択することができる。いくつかの実施形態では、1つ又は複数のグラフィックスの選択は、ユーザが1つ又は複数のグラフィックスとの接触を中断するときに発生する。いくつかの実施形態では、ジェスチャは、1回又は複数のタップ、1回又は複数のスワイプ(左から右へ、右から左へ、上向き、及び/又は下向き)、及び/又は、デバイス100との接触を形成した指の回転(右から左へ、左から右へ、上向き、及び/又は下向き)を含んでよい。いくつかの実施形態では、グラフィックとの意図しない接触は、グラフィックを選択しなくてよい。例えば、アプリケーションアイコン上をスワイプするスワイプジェスチャは、選択に対応するジェスチャがタップである場合、対応するアプリケーションを選択しなくてよい。
デバイス100は、「ホーム」又はメニューボタン204のような1つ又は複数の物理的ボタンを含んでもよい。上述したように、メニューボタン204は、デバイス100上で実行することができるアプリケーションの組の中の任意のアプリケーション136にナビゲートするために使用されてよい。代わりに、いくつかの実施形態では、メニューボタンは、タッチスクリーン112上に表示されるGUI中のソフトキーとして実装される。
一実施形態では、デバイス100は、タッチスクリーン112、メニューボタン204、デバイスの電源をオン/オフし、デバイスをロックするためのプッシュボタン206、音量調節ボタン(複数可)208、加入者識別モジュール(SIM)カードスロット210、ヘッドセットジャック212、及び、ドッキング/充電外部ポート124を含む。プッシュボタン206は、予め定義された期間、ボタンを押下し、ボタンを押下された状態に保持することによってデバイスの電源をオン/オフするため、ボタンを押下し、予め定義された期間が経過する前にボタンを解放することによってデバイスをロックするため、及び/又は、デバイスを解除する、又は解除処理を開始するために使用されてよい。代わりの実施形態では、デバイス100は、マイクロホン113を介していくつかの機能を活性化又は不活性化するための言葉の入力を受け入れることもできる。
図3は、いくつかの実施形態によるディスプレイ及びタッチ感知表面を有する例示的な多機能デバイスのブロック図である。デバイス300は携帯型である必要はない。いくつかの実施形態では、デバイス300は、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、マルチメディアプレーヤデバイス、ナビゲーションデバイス、(子供の学習玩具のような)学習デバイス、ゲームシステム、又は制御デバイス(例えば、家庭用又は工業用コントローラ)である。デバイス300は、典型的には、1つ又は複数の処理ユニット(CPU)310、1つ又は複数のネットワーク又は他の通信インタフェース360、メモリ370、及び、これらの構成要素を相互接続するための1つ又は複数の通信バス320を含む。通信バス320は、システム構成要素間を相互接続し、これらの間の通信を制御する回路網(時にはチップセットと呼ばれる)を含んでよい。デバイス300は、典型的にはタッチスクリーンディスプレイであるディスプレイ340を備える入力/出力(I/O)インタフェース330を含む。I/Oインタフェース330は、キーボード及び/又はマウス(又は他のポインティングデバイス)350並びにタッチパッド355を含んでもよい。メモリ370は、DRAM、SRAM、DDR RAM、又は他のランダムアクセスソリッドステートメモリデバイスのような高速ランダムアクセスメモリを含み、1つ又は複数の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は、他の不揮発性ソリッドステート記憶デバイスを含んでよい。メモリ370は、任意に、CPU(複数可)310から遠隔に配置された1つ又は複数の記憶デバイスを含んでよい。いくつかの実施形態では、メモリ370は、携帯型多機能デバイス100(図1)のメモリ102に格納されたプログラム、モジュール、及びデータ構造に、又はそのサブセットに類似したプログラム、モジュール、及びデータ構造を格納する。さらに、メモリ370は、携帯型多機能デバイス100のメモリ102内に存在しない追加のプログラム、モジュール、及びデータ構造を格納してよい。例えば、デバイス300のメモリ370は、描画モジュール380、プレゼンテーションモジュール382、ワードプロセッシングモジュール384、ウェブサイト作成モジュール386、ディスクオーサリングモジュール388、及び/又は表計算モジュール390を格納してよく、携帯型多機能デバイス100(図1)のメモリ102はこれらのモジュールを格納しなくてよい。
図3中の上記で識別した要素の各々は、1つ又は複数の上述したメモリデバイスに格納されてよい。上記で識別したモジュールの各々は、上述した機能を実行するための命令の組に対応する。上記で識別したモジュール又はプログラム(すなわち、命令の組)は、別個のソフトウェアプログラム、手順、又はモジュールとして実装される必要はなく、したがって、種々の実施形態で、これらのモジュールの種々のサブセットが組み合わされてよく、又は、他の方法で再配置されてよい。いくつかの実施形態では、メモリ370は、上記で識別したモジュール及びデータ構造のサブセットを格納してよい。さらに、メモリ370は、上述していない追加のモジュール及びデータ構造を格納してよい。
ここで、携帯型多機能デバイス100上に実装することができるユーザインタフェース(「UI」)の実施形態に注意を向ける。
図4Aは、いくつかの実施形態による携帯型多機能デバイス100上のアプリケーションのメニューのための例示的なユーザインタフェースを示す。同様なユーザインタフェースが、デバイス300上に実装されてよい。いくつかの実施形態では、ユーザインタフェース400は、以下の要素、すなわち、
・セルラ又はWi−Fi信号のような無線通信(複数可)用の信号強度インジケータ(複数可)402、
・時刻404、
・Bluetooth(登録商標)インジケータ405、
・バッテリ状態インジケータ406、
・○不在着信又はボイスメールメッセージの数のインジケータ414を含んでよい電話138
○未読電子メールの数のインジケータ410を含んでよい電子メールクライアント140
○ブラウザ147、及び、
iPod(アップル社の商標)モジュール152とも呼ばれるビデオ及び音楽プレーヤ152のような、頻繁に使用されるアプリケーションのためのアイコンを有するトレー408、並びに、
・○IM141、
○画像管理144、
○カメラ143、
○天気149−1、
○株価149−2、
○書籍142、
○カレンダ148、
○目覚まし時計149−4、
○地図154、
○ノート153、
○デバイス100及びその種々のアプリケーション136に関する設定へのアクセスを提供する設定412、及び、
○YouTube(登録商標)(Google(登録商標)社の商標)モジュール155とも呼ばれるオンラインビデオモジュール155のような、他のアプリケーションのためのアイコンを、
又はそのサブセット若しくはスーパセットを含む。
図4Bは、ディスプレイ450(例えば、タッチスクリーンディスプレイ112)とは別のタッチ感知表面451(例えば、図3のタブレット又はタッチパッド355)を有するデバイス(例えば、デバイス300、図3)上の例示的なユーザインタフェースを示す。以下の例の多くは、(タッチ感知表面及びディスプレイが結合される場合)タッチスクリーンディスプレイ112上の入力に関連して与えられることになるが、いくつかの実施形態では、デバイスは、図4Bに示すように、ディスプレイとは別のタッチ感知表面上の入力を検出する。いくつかの実施形態では、タッチ感知表面(例えば、図4B中の451)は、ディスプレイ(例えば、450)上の主軸(例えば、図4B中の453)に対応する主軸(例えば、図4B中の452)を有する。これらの実施形態によれば、デバイスは、ディスプレイ上の個々の位置に対応する位置(例えば、図4Bでは、460は468に対応し、462は470に対応する)での、タッチ感知表面451との接触(例えば、図4B中の460及び462)を検出する。このようにして、タッチ感知表面(例えば、図4B中の451)上のデバイスによって検出されたユーザ入力(例えば、接触460及び462、並びにそれらの移動)は、タッチ感知表面がディスプレイとは別の場合、多機能デバイスのディスプレイ(例えば、図4B中の450)上のユーザインタフェースを操作するために、デバイスによって使用される。同様の方法が本明細書に記載の他のユーザインタフェースに使用されてよいことが理解されるべきである。
ユーザインタフェース及び関連するプロセス
ここで、デバイス300又は携帯型多機能デバイス100のような、ディスプレイ及びタッチ感知表面を有する電子デバイス上で実装され得るユーザインタフェース(「UI」)の実施形態及び関連するプロセスに注意を向ける。
図5A〜5Pは、いくつかの実施形態による電子文書をナビゲートするための例示的なユーザインタフェースを示す。これらの図のユーザインタフェースは、図6A〜6C、図7A〜7C及び8〜10のプロセスを含む、後述するプロセスを説明するために使用される。
図5A〜5Cは、いくつかの実施形態による、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを電子文書のためのセグメント化されたユーザインタフェースに表示するための例示的なユーザインタフェースを示す。
図5Aは、タッチスクリーン112上のセグメント化されたユーザインタフェース内の文書の表現を含む例示的なユーザインタフェース502−1を示す。文書は、主要コンテンツ504(例えば、メインテキスト)、補足コンテンツ(例えば、画像、図、動画、スライドプレゼンテーション、アニメーション、HTML5ウィジェット、動く写真、等のようなマルチメディアコンテンツ)、及びユーザ生成コンテンツ(例えば、ノート及び他の注釈)を含む。図示のように、文書は、少なくとも図506−1及びノート(ノートアイコン508−1によって表される)を含む。図示のように、主要コンテンツ504は、主に(又は完全に)テキストで構成される。
セグメント化されたユーザインタフェースは、第1のセグメント(例えば、中央の列512−1)、第2のセグメント(例えば、左側の列512−2)、及び第3のセグメント(例えば、右側の列512−3)を含む。主要コンテンツ504は第1のセグメント(例えば、中央の列512−1)に表示され、補足コンテンツ(例えば、図506−1)は第2のセグメント(例えば、左側の列512−2)に表示される。第3のセグメント(例えば、右側の列512−3)は、ユーザ生成コンテンツ(例えば、ノートアイコン508−1)の表現を含む。
図5Aは、左スワイプジェスチャ505がタッチスクリーン112上で検出されることも示す。代わりに、タップジェスチャ507が、タッチスクリーン112上のノートアイコン508−1に対応する位置で検出される。
図5Bは、左スワイプジェスチャ505又はタップジェスチャ507のいずれかの検出に応じて表示されるユーザインタフェース502−2を示す。ユーザインタフェース502−2は、第3のセグメント(例えば、右側の列512−3)内にユーザ生成コンテンツ(例えば、ノート510)を含む。ノート510は、以前にユーザによって提供されたテキスト(例えば、「The report is due on 4/15/10」及び「make a copy of the figure」)を含む。
図示のように、主要コンテンツ(例えば、504−1)の表示は維持され、前に表示された補足コンテンツ(例えば、図506−1)の一部は表示を中止する(すなわち、図506−1の一部はタッチスクリーン112から除去される)。
いくつかの実施形態では、ユーザインタフェース502−2の表示は、ユーザインタフェース502−1からユーザインタフェース502−2へのアニメーション変化を含む。例えば、ユーザインタフェース502−1は、第2のセグメント(例えば、左側の列512−2)の少なくとも一部がタッチスクリーンディスプレイ112の外にスライドするように、予め規定された方向(例えば、右から左)にスライドする。このような例では、スライドアニメーションの方向(例えば、右から左)は、コンテンツをスクロールすることができる方向(例えば、下から上、又は上から下)に垂直である。
図5Bは、タップジェスチャ509が図506−1に対応する位置で検出されることも示す。代わりに、指の接触が、第2のセグメント(例えば、左側の列512−2)に対応する位置で検出されてよい。いくつかの実施形態では、タップジェスチャ509(又は、第2のセグメントに対応する位置での指の接触)に応じて、ユーザインタフェース502−1が再表示される。
図5Cは、左スワイプジェスチャ505又はタップジェスチャ507(図5A)の検出に応じて表示される代わりのユーザインタフェース502−3を示す。ユーザインタフェース502−3は、ユーザインタフェース502−2と同様である。ユーザインタフェース502−2及びユーザインタフェース502−3間の違いは、ユーザインタフェース502−3が、図506−1の一部の代わりに写真アイコン514−1を含むことである。図5Cでは、タップジェスチャ511が、写真アイコン514−1に対応する位置で検出される。いくつかの実施形態では、タップジェスチャ511の検出に応じて、ユーザインタフェース502−1が再表示される。したがって、図5A〜5Cに示すように、ユーザは、2つの他の形式のコンテンツに関する状況を提供するために、主要コンテンツの表示を維持しながら、補足コンテンツの表示及びユーザ生成コンテンツの表示間を容易に切り替えることができる。
図5D〜5Pは、いくつかの実施形態による、電子文書をナビゲートするための例示的なユーザインタフェースを示す。電子文書は、主要コンテンツ(例えば、メインテキスト)、及び補足コンテンツ(例えば、画像、図、動画、スライドプレゼンテーション、アニメーション、HTML5ウィジェット、動く写真、等のようなマルチメディアコンテンツ)を含む。
図5Dでは、例示的なユーザインタフェース516−1が、横向きのタッチスクリーン112上に表示される。ユーザインタフェース516−1は、第1の表示モードでの電子文書のコンテンツ(例えば、電子文書のページN、ここでNは表示されているコンテンツのページ番号である)の表示を含む。表示されているコンテンツは、主要コンテンツ504−2(例えば、メインテキスト)、及び補足コンテンツ(例えば、図5Eに示す図506−1及び506−2に対応するフルスケールの図である図506−1’及び506−2’、逆に、図506−1及び506−2は、506−1’及び506−2’に対応する縮小スケールの図である)を含む。図示のように、主要コンテンツ504−2及び補足コンテンツ(例えば、図506−1’及び506−2’)は、視覚的に一体化される(例えば、図506−1’及び506−2’は、主要コンテンツ504−2と直列に表示される)。表示されたコンテンツは、ユーザ生成コンテンツを表すノートアイコン508−1も含む。
図5Eは、タッチスクリーン112上に表示された例示的なユーザインタフェース516−2を示す。図示のように、ユーザインタフェース516−2は縦向きに表示される。ユーザインタフェース516−2は、左側セグメント512−5に表示された縮小スケールの図506−1及び506−2、並びに、右側セグメント512−4に表示された主要コンテンツ504−2を含む。したがって、図506−1及び506−2は、主要コンテンツ504−2から視覚的に分離される。図5Eでは、縦向きの図(例えば、506−1及び506−2)は、横向きの対応する図(例えば、図506−1’及び506−2’、図5D)より小さく表示される。
図5Fでは、代わりのユーザインタフェース516−3がタッチスクリーン112上に表示される。ユーザインタフェース516−3は、ユーザインタフェース516−2と同様である。ユーザインタフェース516−2及びユーザインタフェース516−3間の違いは、ユーザインタフェース516−3は、縮小スケールの図506−1及び506−2の代わりに写真アイコン(例えば、514−1及び514−2)を含むことである。図5Fは、タップジェスチャ513が写真アイコン514−1に対応する位置で検出されることも示す。
図5Gは、いくつかの実施形態では、タップジェスチャ513の検出に応じて、図506−1’(図5D)がオーバレイで表示されることを示す。代わりに、いくつかの実施形態では、タップジェスチャ513の検出に応じて、図506−1(図5E)が表示される。
図5Hは、縦向きの電子文書のスクロールされた(例えば、図5Eのユーザインタフェース516−2に表示されるコンテンツからスクロールされた)コンテンツを含む例示的なユーザインタフェース516−5を示す。いくつかの実施形態では、ユーザインタフェース516−5は、予め定義されたユーザジェスチャ(例えば、スワイプアップジェスチャ)に応じて表示される。いくつかの実施形態では、ユーザインタフェース516−5が自動的に表示される。例えば、電子文書の表示されたコンテンツは、ユーザ入力なしに(すなわち、自動スクロールを終了するためのユーザ入力が受信されるまで)、予め定義されたスクロール速度(例えば、5秒毎に1行のテキスト)でスクロールされてよい。
図5Iでは、横向きの電子文書の後続のコンテンツ(例えば、図5Dに示すページ3に続く電子文書のページ4)を含む例示的なユーザインタフェース516−6。すなわち、いくつかの実施形態では、ユーザインタフェース516−1(図5D)上の次のページのジェスチャの検出に応じて、ユーザインタフェース516−6が表示される。図5Iは、単一接触左スワイプジェスチャ515、2接触左スワイプジェスチャ(指の接触517及び519を含む)、又は、単一接触右スワイプジェスチャ521の1つのが、タッチスクリーン512上で検出され得ることも示す。図51に示すジェスチャは、タッチスクリーン112上で検出され得る例示的なジェスチャであり、図示のジェスチャは同時には検出されないことに留意すべきである。図示のジェスチャの1つが一度に検出される。
いくつかの実施形態では、単一接触右スワイプジェスチャ(例えば、図5Iの521)の検出に応じて、ユーザインタフェース516−1(図5D)が表示される。上記で説明したように、ユーザインタフェース516−1は、ページ4(図5I)の直前のページ3に対応する。すなわち、いくつかの実施形態では、単一接触右スワイプジェスチャの検出に応じて、直前のページが表示される。
いくつかの実施形態では、2接触右スワイプジェスチャの検出に応じて、直前のセクション又は章の先頭に対応するページが表示される。代わりに、いくつかの実施形態では、2接触右スワイプジェスチャの検出に応じて、現在のセクション又は章の先頭に対応するページが表示される。
図5Jは、単一接触左スワイプジェスチャ515の検出に応じて、例示的なユーザインタフェース516−7がタッチスクリーン112上に表示されることを示す(例えば、図5Iに示すページ4の直後の、図5J中のページ5)。すなわち、いくつかの実施形態では、単一接触左スワイプジェスチャの検出に応じて、直後のページが表示される。
図5Kは、指の接触517及び519(図5I)を含む2接触左スワイプジェスチャの検出に応じて、電子文書の次のセクションを含む例示的なユーザインタフェース516−8が表示されることを示す(例えば、電子テキストブックの次のセクションの先頭であるページ9)。ユーザインタフェース516−8は、テキスト520−1の強調表示、及び、ユーザによる注釈を表すノートアイコン508−3も含む。
図5Kは、指の接触523及び525を含むピンチジェスチャがタッチスクリーン112上で検出されることも示す。図5Lでは、指の接触523及び525を含むピンチジェスチャに応じて、サムネイル画像の配列が表示される。配列内の各サムネイル画像は、注釈を有するページを表す。
図5M〜5Pは、いくつかの実施形態によるナビゲーションバーを含む例示的なユーザインタフェースを示す。
図5Mでは、例示的なユーザインタフェース516−10は、電子文書のコンテンツ及びナビゲーションバー524を含む。図5Mは、指の接触527がナビゲーションバー524の一部の上で検出されることも示す。
図5Nは、いくつかの実施形態では、指の接触527の検出に応じて、吹き出し(コールアウト)526−1がタッチスクリーン112上に表示されることを示す。図示のように、吹き出し526−1は、対応するページのサムネイルを含む。例えば、吹き出し526−1は、対応するページからのメインテキスト、セクションタイトル534、ノートアイコン528−1、テキストの強調表示528−2、及び画像530−1を含む。
図5Oは、いくつかの実施形態による、指の接触527の検出に応じて表示される代わりのユーザインタフェース516−12を示す。ユーザインタフェース516−12は、セクションタイトル534、注釈テキスト528−2(例えば、「The report is due…」)、画像530−2、及びブックマークアイコン532を含む吹き出し526−2を含む。しかしながら、吹き出し526−1とは異なり、吹き出し526−2は、対応するページからのメインテキストを含まない。
図5Pは、いくつかの実施形態による、指の接触527の検出に応じて表示されるさらに他のユーザインタフェース516−13を示す。ユーザインタフェース516−13は、複数のページを表す情報を含む吹き出し526−3を含む。図示のように、吹き出し526−3は、対応するページのサムネイル画像536−1を含む。吹き出し526−3は、対応するページの直前のページのサムネイル画像の少なくとも一部(例えば、536−2)、及び、対応するページの直前のページのサムネイル画像の少なくとも一部(例えば、536−3)も含む。
これらの図(図5A〜5P)のユーザインタフェースは、図6A〜6C、7A〜7C、及び8〜10のプロセスを含む、後述するプロセスを説明するために使用される。
図6A〜6Cは、いくつかの実施形態による、電子文書のためのセグメント化されたユーザインタフェース内に主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを表示する方法600を示す流れ図である。方法600は、ディスプレイ及びタッチ感知表面を有する電子デバイス(例えば、図3のデバイス300、又は、図1の携帯型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知表面はディスプレイ上にある。いくつかの実施形態では、ディスプレイはタッチ感知表面とは別である。方法600内のいくつかの動作は組み合わされてよく、及び/又は、いくつかの動作の順序は変更されてよい。
後述するように、方法600は、セグメント化されたユーザインタフェース内に主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを表示するための直感的な方法を提供する。限られた画面領域を有する電子デバイスは、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを、表示を乱雑にすることなく3つのすべてを同時に表示することができるようには、同時に表示することができない可能性がある。方法は、ユーザが、(例えば、他の2つの形式のコンテンツに関する文脈を提供するために)主要コンテンツを有するセグメントの表示を維持しながら、補足コンテンツを有するセグメント(例えば、列)の表示と、ユーザ生成コンテンツを有するセグメントの表示とを切り替えることができるようにすることによって、この問題に対処する。これは、ユーザが主要コンテンツに集中し、文脈で及び必要に応じてさらに他の形式のコンテンツへの容易なアクセスも有することを可能にする。
デバイスは、主要コンテンツ(例えば、テキスト)、補足コンテンツ(例えば、画像、図、動画、スライドプレゼンテーション、アニメーション、HTML5ウィジェット、動く写真、等のようなマルチメディアコンテンツ)、及びユーザ生成コンテンツ(例えば、ノート、及び他の注釈)を有する文書を格納する(602)。
いくつかの実施形態では、主要コンテンツは主にテキストで構成される(604)。すなわち、(例えば、そうでなければ主要コンテンツと一体化されることになる補足コンテンツが、代わりに第2の領域/セグメントに表示されるため)主要コンテンツの50%、80%、90%、又はなにか他の妥当な値より多くがテキストである。いくつかの実施形態では、主要コンテンツ内のテキストの割合は、主要コンテンツによってカバーされる領域、及び、主要コンテンツ内のテキストによってカバーされる領域に基づいて決定される。例えば、図5A中の主要コンテンツ504は、完全にテキストで構成される。
いくつかの実施形態では、ユーザ生成コンテンツは、主要コンテンツに関連付けられた注釈を含む(606)。例えば、図5B中のノートテキスト「The report is due on 4/15/10」は、表示された主要コンテンツ「central nervous system」に関連する。
いくつかの実施形態では、ユーザ生成コンテンツは、補足コンテンツに関連付けられた注釈を含む(608)。例えば、図5B中のノートテキスト「make a copy of the figure」は、補足コンテンツ(例えば、図506−1)に関連する。
デバイスは、ディスプレイ上のセグメント化されたユーザインタフェース内に文書の表現を表示する(610)。方法600に関して本明細書で使用されるとき、「セグメント化された」ユーザインタフェースは、複数列又は複数行のユーザインタフェースを指す。例えば、ユーザインタフェース502−1(図5A)は複数列(例えば、中央列512−1、左側列512−2、及び右側列512−3)を含む。文書の主要コンテンツは、セグメント化されたユーザインタフェースの第1のセグメント(例えば、第1の列)に表示され、文書の補足コンテンツは、第1のセグメントと異なるセグメント化されたユーザインタフェースの第2のセグメント(例えば、第2の列)に同時に表示される。例えば、図5Aでは、主要コンテンツ504は中央列512−1に表示され、補足コンテンツ(例えば、図506−1)は左側列512−2に表示される。いくつかの実施形態では、セグメント化されたユーザインタフェース内のセグメントは、可視の境界を有する。いくつかの実施形態では、セグメント化されたユーザインタフェース内のセグメントは、セグメント間に可視の境界を持たない(例えば、図5A)。
いくつかの実施形態では、セグメントは、ユーザインタフェースの動的な領域である(612)。すなわち、ユーザインタフェースのセグメントは、ユーザ入力に応じてサイズ及び形状を変化させることができる(例えば、動的領域の境界上のタップ及びドラッグが、デバイスに動的領域を拡大若しくは縮小させ、又は、動的領域拡大/縮小アイコンの選択が、拡大/縮小アイコンに関連付けられた個々の動的領域を拡大若しくは縮小させる)。
いくつかの実施形態では、ユーザ生成コンテンツを見るための要求を受信する前に、デバイスは、セグメント化されたユーザインタフェース内にユーザ生成コンテンツの表現(例えば、図5Aのノートアイコン508−1、又は完全には表示されていない主要コンテンツに関連付けられた注釈が存在することを示す他のフラグ/マーカ/キャレット)を表示する(614)。
デバイスは、(例えば、タッチ感知表面上のジェスチャを介して)文書のユーザ生成コンテンツを見るための命令を受信する(616)。いくつかの実施形態では、要求は指のジェスチャ(例えば、図5Aの左スワイプジェスチャ505)である。
いくつかの実施形態では、要求の受信は、デバイスのユーザによるユーザ生成コンテンツの表現の選択(例えば、図5Aのディスプレイ上のノートアイコン508−1の位置に対応する位置でのタッチ感知表面上のタップジェスチャ507)の検出を含む(618)。
要求に応じて(620)、デバイスは、前に表示された主要コンテンツの表示を維持し(622)、前に表示された補足コンテンツの少なくとも一部の表示を中止し(624)、文書のユーザ生成コンテンツを第1のセグメント及び第2のセグメントとは異なるセグメント化されたユーザインタフェースの第3のセグメントに表示させる(632)。例えば、図5Bでは、主要コンテンツ504−1の表示は維持され、ユーザ生成コンテンツ510が表示される。加えて、補足コンテンツ(図506−1)の一部が表示されなくなる。
いくつかの実施形態では、前に表示された補足コンテンツの少なくとも一部の表示の中止は、第2のセグメントを少なくとも部分的にディスプレイの外にスライドさせるように予め定義された方向に(例えば、ディスプレイ上の左に)スライドするセグメント化されたユーザインタフェースのアニメーション変化の表示を含む(626)。
いくつかの実施形態では、アニメーション変化は、さらに、ディスプレイ上の第3のセグメントのスライドを含む(628)(例えば、図5Bでは、ノート510はタッチスクリーン112の右側エッジからスライドインしてよい)。
いくつかの実施形態では、スライドは、主要コンテンツのスクロール方向(例えば、垂直方向)に垂直な方向(例えば、水平方向)に生じる(630)。いくつかの実施形態では、コンテンツは、一方向(例えば、垂直方向)にスクロールするように制限される。一例として、コンテンツがディスプレイ上で垂直方向にスクロールするように制限される場合、スライドは、ディスプレイ上で水平方向に生じる。
いくつかの実施形態では、補足コンテンツの少なくとも一部は、ユーザ生成コンテンツと同時に表示される(634)(例えば、図5Bでは、補足コンテンツ506−1の少なくとも一部はノート510と共に表示される)。例えば、前に表示された補足コンテンツは、ユーザ生成コンテンツによって部分的に覆われ、又は、第2のセグメントは、補足コンテンツのエッジのみがディスプレイ上に表示されるように、水平方向若しくは垂直方向に移動される。
いくつかの実施形態では、ユーザ生成コンテンツを見るための要求に応じて、デバイスは、第2のセグメントを縮小し、第3のセグメントを拡大する(636)。例えば、ユーザインタフェース502−1(図5A)からユーザインタフェース502−2(図5B)への移行では、第2のセグメント(例えば、左側列512−2)は縮小し、第3のセグメント(例えば、右側列512−3)は拡大する。いくつかの実施形態では、第3のセグメントは最初に小さいサイズで表示され、ユーザ生成コンテンツのインジケータが第3のセグメント内に表示される(例えば、図5Aの右側列512−3内のノートアイコン508−1)。
いくつかの実施形態では、第1のセグメントは、ディスプレイ上で第2のセグメント及び第3のセグメント間に表示される(638)(例えば、図5Aでは、主要コンテンツ504を有する中央列512−1は、左側列512−2及び右側列512−3間に配置される)。いくつかの実施形態では、第1のセグメント(主要コンテンツを含む)は中央領域に表示され、第2のセグメント(補足コンテンツを含む)は第1のセグメントの左に表示され、第3のセグメント(ユーザ生成コンテンツを含む)は第1のセグメントの右に表示される(例えば、図5A)、又はその逆である。
いくつかの実施形態では、ユーザ生成コンテンツを見るための要求に応じて、デバイスは、第2のセグメント内で、補足コンテンツの1つ又は複数の項目を、補足コンテンツの1つ又は複数の項目の表現(例えば、サムネイル、アイコン、等)に置き換える(640)。すなわち、前に表示された補足コンテンツの少なくとも一部の表示の中止は、補足コンテンツの1つ又は複数の項目の表示の中止と、デバイスのユーザに補足コンテンツが利用可能であることの表示を提供し、ユーザに隠れた補足コンテンツへのアクセスを提供するために、補足コンテンツの項目の、サムネイル、アイコン、又は他の表現への置き換えとを含む。例えば、図5Cでは、図506−1は写真アイコン514−1に置き換えられる。
いくつかの実施形態では、デバイスは、補足コンテンツの個々の項目の表現の選択(例えば、図5Bのタップジェスチャ509)を検出し、表現の選択の検出に応じて、補足コンテンツの個々の項目を表示する(例えば、図5Aのユーザインタフェース502−1を表示する)(642)。いくつかの実施形態では、補足コンテンツの個々の項目は、セグメント化されたユーザインタフェースのレイアウトを変化させることなく表示される(例えば、いくつかの実施形態では、図506−1’が、ユーザインタフェースを水平方向にスライドさせることなくオーバレイで表示される)。いくつかの実施形態では、デバイスは、ユーザ生成コンテンツの表示を中止し、補足コンテンツを再表示させる(例えば、図5A)。いずれの場合でも、ユーザは、補足コンテンツの少なくとも一部が表示を中止している場合でも、補足コンテンツへの1クリック/1タップアクセスを有する。
いくつかの実施形態では、補足コンテンツの1つ又は複数の項目は、各々、主要コンテンツ内の個々のアンカー位置に関連付けられる(644)。補足コンテンツの個々の項目は、補足コンテンツの個々の項目に関する個々のアンカー位置に近接する(例えば、隣接する)第2のセグメント内の位置に表示される。いくつかの実施形態では、複数の画像、図、ビデオ、及び他のマルチメディアコンテンツは、各々、電子辞書の発行者又は著者によって決定される挿入点又は他のアンカー位置(例えば、補足コンテンツの項目に関連付けられたテキストのセクション、キャプション、又は他のブロック)を有する。例えば、図5Aでは、図506−1は、第1の文の用語「central nervous system」に対応するアンカー位置に関連付けられ、図506−1は、用語「central nervous system」に近接した位置に表示される。
いくつかの実施形態では、ユーザ生成コンテンツの1つ又は複数の項目は、各々、主要コンテンツ内の個々のアンカー位置に関連付けられる(646)。ユーザ生成コンテンツの個々の項目は、ユーザ生成コンテンツの個々の項目に関する個々のアンカー位置に近接する(例えば、隣接する)第3のセグメント内の位置に表示される。いくつかの実施形態では、複数のノートは、各々、(例えば、強調されたテキストに関連付けられたノートを作成することによって)ユーザによって決定される挿入点又は他のアンカー位置(例えば、補足コンテンツの項目に関連付けられたテキストのセクション、キャプション、又は他のブロック)を有する。例えば、図5Aでは、ノートアイコン508−1は、表題「Central Nervous System」に対応するアンカー位置に関連付けられ、ノートアイコン508−1は、表題「Central Nervous System」に近接した位置に表示される。
図7A〜7Cは、いくつかの実施形態による、電子文書内の主要及び補足コンテンツを、仮想的に一体化され仮想的にセグメント化された表示モードで表示させる方法700を示す流れ図である。方法700は、ディスプレイ及びタッチ感知表面を有する電子デバイス(例えば、図3のデバイス300、又は、図1の携帯型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知表面はディスプレイ上にある。いくつかの実施形態では、ディスプレイはタッチ感知表面とは別である。方法700内のいくつかの動作は組み合わされてよく、及び/又は、いくつかの動作の順序は変更されてよい。
後述するように、方法700は、電子文書の主要コンテンツ及び補足コンテンツの表示を調節するための直感的な方法を提供する。いくつかの例では、主要コンテンツ及び補足コンテンツ間の相関が有益である場合、ユーザは、電子文書のコンテンツを視覚的に一体化された表示モード(例えば、電子文書のコンテンツは、発行者によって決定されたレイアウトに配置される)で読みたいと思う可能性がある。そしていくつかの他の例では、例えば、ユーザが電子文書のメインテキストに集中したいと思う場合、ユーザは、電子文書のコンテンツを視覚的に分離された表示モードで読みたいと思う可能性がある。方法は、視覚的に一体化された表示モード及び視覚的に分離された表示モード間を切り替えるための簡単なメカニズムを提供し、それによってより効率的なマン−マシンインタフェースを作成する。
デバイスは、主要コンテンツ(例えば、テキスト)及び補足コンテンツ(例えば、画像、図、動画、スライドプレゼンテーション、アニメーション、HTML5ウィジェット、動く写真、等のようなマルチメディアコンテンツ)を有する文書(例えば、電子書籍、雑誌、新聞、論文、テキストブック、pdf、等)を格納する(702)。
デバイスは、文書のコンテンツを、文書プレゼンテーションアプリケーション(例えば、eブックリーダ、pdfリーダ、等)の第1の表示モードで表示する(704)。補足コンテンツは、第1の表示モードでは、主要コンテンツと視覚的に一体化される(例えば、点在させられる、織り込まれる、混合される、直列に表示される、作成者が指定したフォーマットで表示される、等)。すなわち、第1の表示モードでは、補足コンテンツは、1つ又は複数の予め定義された領域に限定されないが、(例えば、作成者又は著者によって指定された「印刷」レイアウトで)主要コンテンツの間に表示される。例えば、図5Dでは、図506−1’及び506−2’のような補足コンテンツは、主要コンテンツ504−2に点在させられる。
いくつかの実施形態では、第1の表示モードで補足コンテンツを主要コンテンツと視覚的に一体化することは、補足コンテンツを主要コンテンツと直列に表示することを含む(706)(例えば、図5Dでは、図506−1’及び506−2’のような補足コンテンツは、主要コンテンツ504−2と直列に表示される。)
いくつかの実施形態では、補足コンテンツの複数の項目が、第1の表示モードで同時に表示される(708)(例えば、図5Dの図506−1’及び506−2’)。いくつかの実施形態では、補足コンテンツの2つ以上の項目が、主要コンテンツの少なくとも一部と同時に表示される(例えば、図5Dの図506−1’及び506−2’、並びに、主要コンテンツ504−2)。いくつかの実施形態では、補足コンテンツの項目の複数の対応する表現が、第1の表示モードで同時に表示される。例えば、写真アイコンが図の代わりに表示されてよい。
いくつかの実施形態では、第1の表示モードは、主要コンテンツ及び補足コンテンツが文書の作成者(例えば、発行者、著者、等)によって指定されたテンプレートにしたがって配置される、作成者指定の表示モードである(710)。すなわち、作成者は、主要コンテンツ及び補足コンテンツのレイアウトを予め決定する。したがって、第1の表示モードは、印刷レイアウトモードとも呼ばれる。
文書のコンテンツを第1の表示モードで表示しながら、デバイスは、文書のコンテンツを文書プレゼンテーションアプリケーションの第2の表示モードで表示させるための要求を受信する(712)。これは、デバイスが、第1の表示モードから直接、第2の表示モードに切り替えることを可能にする。
いくつかの実施形態では、文書のコンテンツを第2の表示モードで表示させるための要求の受信は、デバイスの回転の検出を含む(714)(例えば、デバイスは、横向きから縦向きへの回転、又はその逆を検出する)。例えば、デバイスは、ジャイロスコープ、加速度計、又は他の方位センサから検出された入力にしたがってデバイスの回転を検出する。
いくつかの実施形態では、第2の表示モードは、作成者指定の表示モードでテキストの別個のブロックとして表示される主要コンテンツ内のテキストの2つ以上の部分がテキストの同じ連続するブロック内に表示される、テキストレビュー表示モードである(716)(例えば、テキストの2つ以上のブロックが作成者によって指定されたテンプレート内のテキストの異なるブロックとして識別される)。特に、図、画像、列の区切り、ページの区切り、等によって分離されたテキストの2つの部分が、テキストをレビューするのをユーザにとってより容易にするために、単一の列表示で一緒に表示される。例えば、図5Eでは、ユーザインタフェース516−2は、テキストのブロック内に点在させられた補足コンテンツを持たないテキストのブロック内に一緒に表示された、(表題「central nervous system」を含む)特定のページからのテキスト504−2、及び、後続のページからのテキスト504−3(例えば、表題「regions of the brain」)を含む。
いくつかの実施形態では、第1の表示モード及び第2の表示モードの両方は、デバイス上で文書(例えば、文書コンテンツの少なくともサブセットのレンダリング)を見るためにエンドユーザが使用するための表示モードである(718)。すなわち、2つの表示モードは、オーサリングアプリケーション(例えば、ウェブサイトオーサリング、デスクトップパブリッシング、等)のオーサリングモードではない。
要求に応じて、デバイスは、文書のコンテンツを第2の表示モードで表示し、第2の表示モードでは、補足コンテンツの表現は主要コンテンツから視覚的に分離される(720)。例えば、図5Eでは、補足コンテンツは左側列512−5に表示され、主要コンテンツ504−2は右側列512−4に表示される。いくつかの実施形態では、補足コンテンツの表現は、第1の表示モードで表示される補足コンテンツ(例えば、図5Dのフルスケールの図506−1’及び506−2’)を含む。いくつかの実施形態では、補足コンテンツの表現は、補足コンテンツを表すアイコンを含む。いくつかの実施形態では、補足コンテンツの表現は、補足コンテンツの縮小されたスケールの表現(例えば、図506−1’及び506−2’の縮小されたスケールの表現としての、図5Eの図506−1及び506−2)を含む。典型的には、文書のコンテンツの一部のみが表示され、したがって、主要コンテンツの一部及び補足コンテンツの一部のみが任意の所定の時点で表示される。
いくつかの実施形態では、第2の表示モードでの補足コンテンツの表現の主要コンテンツからの視覚的な分離は、補足コンテンツを含まないユーザインタフェースの第1の領域に主要コンテンツ(例えば、図5Eの右側列512−4の主要コンテンツ504−2)を表示することと、ユーザインタフェースの第1の領域とは別の、主要コンテンツを含まないユーザインタフェースの第2の領域に、補足コンテンツの表現(例えば、図5Eの左側列512−5の図506−1及び506−2)を表示することとを含む(722)。
いくつかの実施形態では、補足コンテンツの項目は、第1の表示モードではディスプレイ上に第1のサイズで表示され、補足コンテンツの項目の表現は、第2の表示モードで表示される(724)。補足コンテンツの項目の表現は、ディスプレイ上で第1のサイズより小さい第2のサイズを有する。例えば、ユーザインタフェース516−2(図5E)内の図506−1は、ユーザインタフェース516−1(図5D)内の対応する図506−1’より小さい。いくつかの実施形態では、補足コンテンツに取られる画面領域の量を減少させ、したがって、主要コンテンツのためのディスプレイ上のより大きい空間を提供するために、補足コンテンツは、第1の表示モードでよりも第2の表示モードで小さい。
いくつかの実施形態では、第1の表示モードで、補足コンテンツは、補足コンテンツの1つ又は複数の項目(例えば、図5Dの図506−1’及び506−2’)を含む(726)。第2の表示モードでは、デバイスは、第1の表示モードで表示される補足コンテンツの対応する項目を置き換える1つ又は複数の補足コンテンツアイコン(例えば、図5Fの写真アイコン514−1及び514−2のような、コンテンツの形式を示すサムネイル又はコンテンツ固有のアイコン)を表示する。デバイスは、個々の補足コンテンツアイコンの選択(例えば、図5Fのタップジェスチャ513)を検出し、選択の検出に応じて、補足コンテンツの対応する項目(例えば、図5Gの図506−1’)をディスプレイ上に表示する。すなわち、第2の表示モードは、他のコンテンツの強調を抑えながらテキストを表示するために最適化され、第2の表示モードは、依然として、マルチメディアコンテンツへの迅速なアクセス(例えば、1クリック/1タップ)を提供する。いくつかの実施形態では、マルチメディアコンテンツは(選択されると)、(インタラクティブ)オーバレイ/ポップオーバ(例えば、図5Gの図506−1’)として表示される。いくつかの実施形態では、補足コンテンツアイコンは、ディスプレイの予め定義された領域に(例えば、ディスプレイの左側エッジに沿って(例えば図5Eの図506−1))表示される。
いくつかの実施形態では、第1の表示モードは、主要コンテンツ内のテキストの読む方向に対して第1のコンテンツ進行方向(例えば、スクロールする又は次のページにナビゲートすること等によって、デバイスがコンテンツを進行させるための要求を検出した場合、テキストがディスプレイ上で移動する方向)(例えば、進行方向はテキストの左から右への方向に平行である)を有し、第2の表示モードは、主要コンテンツ内のテキストの読む方向に対して、第1のコンテンツ進行方向とは別の第2のコンテンツ進行方向(例えば、進行方向はテキストの左から右への方向に対して垂直である)を有する(728)。例えば、第1の表示モードでは、右から左へのスワイプジェスチャの検出は、デバイスに次のページに進ませることになり、左から右へのスワイプジェスチャの検出は、デバイスに、前のページに戻るナビゲートをさせることになる。対照的に、第2の表示モードでは、下から上へのスワイプジェスチャの検出は、コンテンツの次の部分を表示するためにデバイスに主要コンテンツを上方にスクロールさせることになり、上から下へのスワイプジェスチャの検出は、コンテンツの前の部分を表示するためにデバイスに主要コンテンツを下方にスクロールさせることになる。
いくつかの実施形態では、主要コンテンツは複数のページ境界を含む(730)。デバイスは、文書をナビゲートするための要求(例えば、タッチ感知表面上のスワイプジェスチャ、又は、コンテンツ前進アイコン上のタップ及び保持/クリック及び保持ジェスチャ/入力)を検出する。文書をナビゲートする要求の検出に応じて、デバイスが第1の表示モードであることの決定にしたがって、デバイスは、ページ境界にしたがって続いて隣接するページ(例えば、次のページ又は前のページ)にナビゲートし(例えば、コンテンツは、デスクトップパブリッシングアプリケーション又は書籍では典型的なものであるように、ページ1、ページ2、等のような、フルページ単位で表示される)、デバイスが第2の表示モードであることの決定にしたがって、デバイスは、要求に関連付けられた値の大きさにしたがって文書をスクロールさせる(例えば、ウェブページ、又はページ区切りを持たない他の文書に関して典型的であるように、スワイプジェスチャの距離/速度/持続時間、又はコンテンツ前進アイコンの選択にしたがって、文書を連続的にスクロールさせる)。例えば、文書をナビゲートするための要求の検出に応じて、デバイスは、第1の表示モードでは、ユーザインタフェース516−1(図5D)から、次のページ(図5I)に対応するユーザインタフェース516−6にナビゲートするのに対し、デバイスは、第2の表示モードでは、ユーザインタフェース516−2(図5E)から、ユーザインタフェース516−2の一部及び文書の連続的に続く部分を含むユーザインタフェース516−5(図5H)にナビゲートする。
いくつかの実施形態では、補足コンテンツの個々の項目は、主要コンテンツの予め定義された部分に関連付けられる(732)。第1の表示モードでは、補足コンテンツの個々の項目は、主要コンテンツの予め定義された部分に近接して表示され、第2の表示モードでは、補足コンテンツの個々の項目の表現が、主要コンテンツの予め定義された部分に近接して表示される。例えば、図5Dでは、図506−1’は、主要コンテンツ504−2内の用語「central nervous system」に関連付けられる。図5Dでは、図506−1’は、横モードで用語「central nervous system」に近接して表示され、図5Eでは、図506−1も、縦モードで用語「central nervous system」に近接して表示される。
第2の表示モードで主要コンテンツの予め定義された部分、及び、補足コンテンツの個々の項目の表現を表示しながら、デバイスは、主要コンテンツをナビゲートするための要求を検出する(734)。主要コンテンツをナビゲートするための要求の検出に応じて、デバイスは、主要コンテンツをナビゲートするための要求にしたがってディスプレイ上の更新された位置に主要コンテンツの予め定義された部分を再配置し、主要コンテンツの予め定義された部分の更新された位置にしたがってディスプレイ上の補足コンテンツの個々の項目の表現を再配置する。例えば、電子文書のコンテンツが(図5Eから図5Hに)スクロールされると、図506−1は、主要コンテンツ内の用語「central nervous system」の更新された位置に表示される。主要コンテンツ、及び補足コンテンツの個々の項目が第2の表示モードで表示される場合、第2の表示モードでは、補足コンテンツは主要コンテンツと同期して移動することになることが理解されるべきである。
いくつかの実施形態では、デバイスは長軸及び短軸を有する(736)。第1の表示モードでは、テキストの読む方向(例えば、主要な読む方向)は、長軸と整列される(例えば、図5D)。第2の表示モードでは、テキストの読む方向は、短軸と整列される(例えば、図5E)。例えば、英語に関して、主要な読む方向は左から右であり、ヘブライ語に関して、主要な読む方向は右から左である。
いくつかの実施形態では、第2の表示モードで文書のコンテンツを表示しながら、デバイスは、文書プレゼンテーションアプリケーションの第1の表示モードで文書のコンテンツを表示するための要求を受信する(例えば、デバイスは、縦向きから横向きへのデバイスの回転を検出する)。これに応じて、デバイスは、文書のコンテンツを第1の表示モードで表示する。
図8は、いくつかの実施形態による、単一接触の及び複数接触のジェスチャで電子文書をナビゲートする方法800を示す流れ図である。方法800は、ディスプレイ及びタッチ感知表面を有する電子デバイス(例えば、図3のデバイス300、又は、図1の携帯型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知表面はディスプレイ上にある。いくつかの実施形態では、ディスプレイはタッチ感知表面とは別である。方法800内のいくつかの動作は組み合わされてよく、及び/又は、いくつかの動作の順序は変更されてよい。
後述するように、方法800は、電子文書をナビゲートするための直感的な方法を提供する。方法は、ユーザが電子文書をユーザジェスチャに基づいてベージ毎、章毎、又は注釈毎にナビゲートすることを可能にする。方法は、電子文書を、特に、電子文書の重要な部分(例えば、ユーザによって注釈が付けられた部分)にナビゲートするより高速な方法を提供し、それによって、より効果的なマン−マシンインタフェースを形成する。バッテリ駆動の電子デバイスに関して、ユーザがより高速に且つより効率的に電子文書をナビゲートすることを可能にすることは、電力を節約し、バッテリ充電間の時間を増加させる。
デバイスは、文書内の個々の位置を有する複数の特徴を有する文書を格納する(802)。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴、及び、第2のシーケンスの第2の特徴形式の特徴を含む。第2の特徴形式は、第1の特徴形式と別である。
いくつかの実施形態では、第1の特徴形式は、ページ又はページ区切りである(804)。
いくつかの実施形態では、第2の特徴形式は、セクション、セクション区切り、章、章区切り、又は注釈の1つである(806)。すなわち、第2の特徴形式は、非ページ区切り特徴である(すなわち、ページでもページ区切りでもない)。
デバイスは、ディスプレイ上に文書の少なくとも一部を表示する(808)。いくつかの実施形態では、表示される部分は、第1の形式の特徴(例えば、個々のページ)に対応し、第2の形式の特徴(例えば、個々のセクション、章、注釈、等)にも対応する。例えば、図5Iに示す文書の一部は、個々のページに対応し、個々のセクション(セクションタイトル「Regions of the Brain」を有する)にも対応する。
デバイスは、タッチ感知表面上の第1のジェスチャ(例えば、図5Iの、1本指の左スワイプジェスチャ515、又は、指の接触517及び519を含む2本指の左スワイプジェスチャ517)を検出する(810)。
いくつかの実施形態では、第1のジェスチャはスワイプジェスチャ(例えば、図5Iの、左スワイプジェスチャ515)である(812)。
第1のジェスチャの検出(814)に応じて、第1のジェスチャが単一接触ジェスチャであるという決定にしたがって、デバイスは、文書内の第1の特徴形式の続いて隣接する特徴を含む又はこれに近接して位置する文書の部分にナビゲートする(例えば、図5I〜5Jで、デバイスは次のページにナビゲートする)(816)。
いくつかの実施形態では、文書の部分へのナビゲートは、文書の現在表示されている部分の表示を中止すること、及び、第1の特徴形式の次の特徴(例えば、次のページ)を含む又はこれに近接して位置する文書の部分を表示することを含む。
いくつかの実施形態では、文書の一部へのナビゲートは、文書の現在表示されている部分、及び、次の特徴を含む又はこれに近接して位置する文書の部分間のアニメーション変化(例えば、スクロール、ページフリップ、スライド、フェージング、等)を表示することを含む。例えば、いくつかの実施形態では、図5Iのユーザインタフェース516−6は、タッチスクリーン112の左側の外にスライドし、図5Jのユーザインタフェース516−7は、タッチスクリーン112の右側から中にスライドする。
第1のジェスチャが、第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、デバイスは、文書内の第2の特徴形式の続いて隣接する特徴を含む又はこれに近接して位置する文書の部分にナビゲートする(818)。例えば、指の接触517及び519(図5I)を含む2接触スワイプジェスチャに応じて、デバイスは、次のセクションに(例えば、図5Iから図5Kに)ナビゲートする。いくつかの実施形態では、続いて隣接する特徴を含む又はこれに近接して位置する文書の一部へのナビゲートは、次の又は前の特徴(例えば、次の章又は前の章)の先頭へのナビゲートを含み、他の実施形態では、続いて隣接する特徴を含む又はこれに近接して位置する文書の一部へのナビゲートは、現在の特徴の先頭/末尾(例えば、現在表示されているセクション又は章の先頭又は末尾)へのナビゲートを含むことが理解されるべきである。加えて、いくつかの実施形態では、第1の方向を有するジェスチャは、デバイスに現在の特徴の先頭にナビゲートさせ、第1の方向と反対の第2の方向を有するジェスチャは、デバイスに次の特徴の先頭にナビゲートさせる。一例として、左へのスワイプジェスチャは、デバイスに次の章の先頭を表示させ、右へのスワイプジェスチャは、デバイスに現在の章の先頭を表示させる。
いくつかの実施形態では、複数接触ジェスチャは2接触スワイプジェスチャ(例えば、図5Iの指の接触517及び519を含む2接触スワイプジェスチャ)であり、特徴の第2の形式はセクションの区切りである(820)。例えば、2接触スワイプジェスチャの検出に応じて、デバイスは次の又は前のセクションにナビゲートする。
いくつかの実施形態では、複数接触ジェスチャは2接触スワイプジェスチャであり、特徴の第2の形式は章の区切りである(822)。例えば、2接触スワイプジェスチャの検出に応じて、デバイスは次の又は前の章にナビゲートする。
いくつかの実施形態では、複数接触ジェスチャは3接触スワイプジェスチャであり、特徴の第2の形式は注釈である(824)。例えば、3接触スワイプジェスチャの検出に応じて、デバイスは、次の又は前のユーザ注釈を含む又はこれに対応する電子文書の一部にナビゲートする。
いくつかの実施形態では、第1のジェスチャは方向を有する(826)(例えば、第1のジェスチャはスワイプジェスチャである)。ジェスチャの方向が第1の方向(例えば、左へ)の成分を含むことの決定にしたがって、続いて隣接する特徴は直後の特徴(例えば、次のページ、セクション、章、注釈、等)となる。ジェスチャの方向が第1の方向と反対の第2の方向(例えば、右へ)の成分を含むことの決定にしたがって、続いて隣接する特徴は直前の特徴(例えば、前のページ、セクション、章、注釈、等)となる。例えば、いくつかの実施形態では、左スワイプジェスチャに応じて、デバイスは、次の(又は、後続の)特徴を含む文書の一部にナビゲートし、右スワイプジェスチャに応じて、デバイスは、前の(又は、先行する)特徴を含む文書の一部にナビゲートする。いくつかの実施形態では、デバイスは、また、右上スワイプ又は右下スワイプは右方向の成分を有するため、斜めの右上スワイプ又は右下スワイプに応じて、前の(又は、先行する)特徴を含む文書の一部にナビゲートする。
図9は、いくつかの実施形態による、注釈付きセグメント表現の配列を表示する方法900を示す流れ図である。方法900は、ディスプレイ及びタッチ感知表面を有する電子デバイス(例えば、図3のデバイス300、又は、図1の携帯型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知表面はディスプレイ上にある。いくつかの実施形態では、ディスプレイはタッチ感知表面とは別である。方法900内のいくつかの動作は組み合わされてよく、及び/又は、いくつかの動作の順序は変更されてよい。
後述するように、方法900は、電子文書の注釈付きセグメントの概要を表示し、ユーザが望む注釈付きセグメントにナビゲートする直感的な方法を提供する。方法は、ユーザに関連するセグメント(例えば、ユーザ注釈を含むページ)の概要の表示を提供し、それによって、ユーザが関連しないセグメント(例えば、ユーザ注釈を含まないページ)を通って行く必要性を排除する。方法は、ユーザが、セグメントの表現を選択することによって、表示されたセグメントの1つにナビゲートすることを可能にする。したがって、方法は、ユーザが望む電子文書の注釈付きセグメントへのナビゲートのプロセスを合理化し、それによって、より効率的なマン−マシンインタフェースを形成する。バッテリ駆動デバイスに関して、ユーザが、ユーザが望む注釈付きセグメントにより高速に且つより効率的にナビゲートすることを可能にすることは、電力を節約し、バッテリ充電間の時間を長くする。
デバイスは、複数セグメント文書の一部を表示する(902)。方法900に関して本明細書で使用されるとき、「セグメント」は、電子文書のページ、スライドショーのスライド、表計算のワークシート、アルバムの画像、等である。複数セグメント文書のセグメントの第1の組は、各々、1つ又は複数の個々の注釈を有し、複数セグメント文書のセグメントの第2の組は、注釈を持たない。例えば、ユーザインタフェース516−1(図5D)、516−6(図5I)、及び516−8(図5K)内のページは、注釈(例えば、ノートアイコン508−1、508−2及び508−3、並びに強調520−1)を有し、ユーザインタフェース516−7(図5J)内のページは、注釈を持たない。
デバイスは、タッチ感知表面上の予め定義されたジェスチャを検出する(904)。いくつかの実施形態では、予め定義されたジェスチャは、ピンチジェスチャ、スワイプジェスチャ、又は、「注釈表示」ボタンの選択である。例えば、図5Kでは、デバイスは、指の接触523及び525を含むピンチジェスチャを検出する。
予め定義されたジェスチャの検出に応じて、デバイスは、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列(例えば、複数行、複数列のグリッド)(図5L)を表示する(906)。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連付けられた個々の注釈の視覚的指標を含む。例えば、図5L中の注釈付きページのサムネイル画像は、各々、ノートアイコン(例えば、ユーザインタフェース516−9内の522−1、522−2、及び522−4)並びに/又は強調の視覚的指標(例えば、522−3)を含む。
いくつかの実施形態では、予め定義されたジェスチャの検出に応じて、デバイスは、複数セグメント文書の一部の表示を中止する(908)。例えば、ユーザインタフェース516−8(図5K)上のピンチジェスチャに応じてセグメント表現の配列が表示される(図5L)と、ユーザインタフェース516−8は、タッチスクリーン112上の表示を中止する。
いくつかの実施形態では、個々の注釈の視覚的指標は、視覚的指標に関連付けられた注釈の形式についての情報を提供する(910)。いくつかの実施形態では、注釈の形式は、ブックマーク、ノート、強調、等を含む。いくつかの実施形態では、注釈が強調されているとき、視覚的指標は、複数セグメント文書の個々のセグメントのサムネイル内で強調される(例えば、図5Lの視覚的指標522−3)。いくつかの実施形態では、注釈がノートである場合、視覚的指標は「ノート」アイコン(例えば、図5Lの視覚的指標522−1)である。いくつかの実施形態では、注釈がブックマークである場合、視覚的指標はブックマークアイコンである。
いくつかの実施形態では、特定のセグメントのセグメント表現は、特定のセグメントのサムネイル画像であり(図5L)、特定のセグメントに関する視覚的指標は、特定のセグメントに関する注釈の縮小されたスケールの複製である(例えば、サムネイル内のテキストが強調され、ノートがページ内のノートの位置に表示される、等)(912)。
いくつかの実施形態では、個々の注釈は、複数セグメント文書の特定のセグメント内に個々のアンカー位置を有する(914)。特定のセグメントのセグメント表現は、特定のセグメントのサムネイル(例えば、図5Lに示す注釈付きページの3つのサムネイル表現)である。特定のセグメントに関する視覚的指標は、特定のセグメント内の個々のアンカー位置に対応するサムネイル内の位置に表示される。例えば、文書のページ内のテキスト(例えば、「central nervous system」)に関連付けられたノートに関するノートアイコン522−1が、文書のページのサムネイル内に、ノートが関連付けられたページ内のテキストの位置に対応するサムネイル内の位置に表示される。
いくつかの実施形態では、デバイスは、セグメント表現の配列内の個々のセグメント表現のユーザ選択を検出する。個々のセグメント表現のユーザ選択の検出に応じて、デバイスは、セグメント表現の配列の表示を中止し、ユーザによって選択された個々のセグメント表現に対応する複数セグメント文書のセグメントを表示する。
図10は、いくつかの実施形態による、ナビゲーションバーを有する電子文書をナビゲートする方法1000を示す流れ図である。方法1000は、ディスプレイ及びタッチ感知表面を有する電子デバイス(例えば、図3のデバイス300、又は、図1の携帯型多機能デバイス100)で実行される。いくつかの実施形態では、ディスプレイはタッチスクリーンディスプレイであり、タッチ感知表面はディスプレイ上にある。いくつかの実施形態では、ディスプレイはタッチ感知表面とは別である。方法1000内のいくつかの動作は組み合わされてよく、及び/又は、いくつかの動作の順序は変更されてよい。
後述するように、方法1000は、ナビゲーションバーを有する電子文書をナビゲートする直感的な方法を提供する。方法は、ユーザに関連する電子文書の一部(例えば、ユーザ注釈を含むページ)のプレビューを表示するナビゲーションを提供し、それによって、ユーザが関連しない部分(例えば、ユーザ注釈を含まないページ)にナビゲートする必要性を排除する。したがって、方法は、ユーザが望む電子文書の注釈付き部分へのナビゲートのプロセスを合理化し、それによって、より効率的なマン−マシンインタフェースを形成する。バッテリ駆動デバイスに関して、ユーザが、ユーザが望む注釈付きセグメントにより高速に且つより効率的にナビゲートすることを可能にすることは、電力を節約し、バッテリ充電間の時間を長くする。
デバイスは、文書の第1の部分(例えば、第1のページ)、及び、文書をナビゲートするためのナビゲーションバー(例えば、図5Mのナビゲーションバー524)を同時に表示する(1002)。
デバイスは、文書の第2の部分に関連付けられたナビゲーションバーの一部に対応するタッチ感知表面上の位置でジェスチャ(例えば、図5Mの指の接触527)を検出する(1004)。文書の第2の部分は、個々の注釈を含む。
ジェスチャの検出に応じて、文書の第1の部分を表示し続けながら、デバイスは、ナビゲーションバーの一部に近接する位置に、個々の注釈の表現を含む文書の第2の部分の表現(例えば、電子文書の個々の注釈付きページのサムネイル画像)を表示する(1006)。いくつかの実施形態では、ジェスチャは、タッチ感知表面上の予め決められた期間(例えば、0.02、0.05、0.1、0.2秒、又は任意の合理的な期間)より長い間検出された接触に対応する。
いくつかの実施形態では、第2の部分の表現は、文書の第1の部分の少なくともサブ領域を覆う吹き出し(例えば、オーバレイ)(例えば、図5Nの吹き出し526−1)内に表示される(1008)。すなわち、吹き出しは、文書の第1の部分及びナビゲーションバーに加えて表示され、第1の部分の少なくとも一部に重なる新たなユーザインタフェース要素である。
いくつかの実施形態では、第2の部分の表現は、第2の部分に関するセクションタイトルを含む(1010)。例えば、第2の部分は、電子文書の章内のページであり、第2の部分に関するセクションタイトルは章のタイトルである(例えば、図5Nのセクションタイトル534)。
いくつかの実施形態では、第2の部分の表現は、第2の部分からの代表的な画像を含む(1012)。例えば、第2の部分は章内のページであり、代表的な画像は、章内の第1の図又はページ上の第1の図(例えば、画像530−1)である。
いくつかの実施形態では、個々の注釈はテキストの強調表示であり、個々の注釈の表現は、強調されたテキスト(例えば、図5Nの強調されたテキスト528−2)を含む(1014)。いくつかの実施形態では、強調されたテキストのみが第2の部分の表現内に表示される。いくつかの実施形態では、強調されたテキスト及び他のテキストを含むテキストのブロックが、第2の部分の表現内に表示される(例えば、第2の部分は、強調された文を有する段落を含むページであり、表現は、強調されたテキストに関する文脈を提供するために、強調されたテキストを含む段落のテキストを含む吹き出しである)。
いくつかの実施形態では、個々の注釈はノートであり、個々の注釈の表現は、ノートのテキストを含む(例えば、ノートのテキストの一部又は全部が、第2の部分の表現内に含まれる)(1016)。例えば、図5Oでは、吹き出し526−2は、対応するページに関するノートのテキストの部分(例えば、「the report is due…」)を含む。いくつかの実施形態では、吹き出しは、主要コンテンツのテキストをなにも含まない(例えば、セクションタイトル534及び主要コンテンツのいかなる他のテキストも含まない)ノートのテキストの少なくとも一部を含む。
いくつかの実施形態では、個々の注釈はブックマークであり、指標はブックマークアイコン(例えば、図5Oのブックマークアイコン532)を含む(1018)。
いくつかの実施形態では、文書の第2の部分は、文書の個々のページである(1020)。文書の第2の部分の表現は、個々のページのサムネイル画像(例えば、個々のページの縮小されたスケールの複製を含む画像)を含み、個々の注釈の表現がサムネイル画像内に表示される(例えば、図5N)。いくつかの実施形態では、個々の注釈の表現は、文書の第2の部分内の個々の注釈の位置に対応するサムネイル内の位置に表示される。
いくつかの実施形態では、文書は複数のページを含む(1022)(例えば、図5P)。文書の第2の部分の表現は、文書内の2つ以上のページの表現を含む。すなわち、第2の部分の表現は、文書の第2の部分に対応する個々のページの表現、及び、文書内の個々のページに続いて隣接する1つ又は複数の連続的なページの表現の両方を含む。
いくつかの実施形態によれば、図11は、上述した本発明の原理に従って構成された電子デバイス1100の機能ブロック図を示す。デバイスの機能ブロックは、本発明の原理を実行するように、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてよい。図11に示す機能ブロックは、上述した本発明の原理を実施するように、結合又はサブブロックに分離されてよいことは、当業者によって理解される。したがって、本明細書の記載は、本明細書に記載の機能ブロックの任意の可能な組み合わせ若しくは分離、又はさらなる定義をサポートすることができる。
図11に示すように、電子デバイス1100は、主要コンテンツ、補足コンテンツ、及びユーザ生成コンテンツを有する文書を格納するように構成された記憶ユニット1106と、セグメント化されたユーザインタフェース内に文書の表現を表示するように構成された表示ユニット1102であって、文書の主要コンテンツはセグメント化されたユーザインタフェースの第1のセグメント内に表示され、文書の補足コンテンツは第1のセグメントとは別のセグメント化されたユーザインタフェースの第2のセグメント内に同時に表示される、表示ユニット1102と、文書のユーザ生成コンテンツを見るための要求を受信するように構成されたタッチ感知表面ユニット1104と、記憶ユニット1106、表示ユニット1102、及びタッチ感知表面ユニット1104に結合された処理ユニット1108とを含む。いくつかの実施形態では、処理ユニット1108は、表示可能化ユニット1110、検出ユニット1112、維持ユニット1114、中止ユニット1116、置換ユニット1118、縮小ユニット1120、及び拡大ユニット1122を含む。
処理ユニット1108は、要求に応じて、表示ユニット1102上の前に表示された主要コンテンツの表示を(例えば、維持ユニット1114によって)維持し、表示ユニット1102上の前に表示された補足コンテンツの少なくとも一部の表示を(例えば、中止ユニット1116によって)中止し、表示ユニット1102上の第1のセグメント及び第2のセグメントと別のセグメント化されたユーザインタフェースの第3のセグメントへの文書のユーザ生成コンテンツの表示を(例えば、表示可能化ユニット1110によって)可能にするように構成される。
いくつかの実施形態では、セグメントはユーザインタフェースの動的な領域である。
いくつかの実施形態では、補足コンテンツの少なくとも一部は、表示ユニット1102上にユーザ生成コンテンツと同時に表示される。
いくつかの実施形態では、処理ユニット1108は、ユーザ生成コンテンツを見るための要求を受信する前に、表示ユニット1102上のセグメント化されたユーザインタフェースへのユーザ生成コンテンツの表現の表示を(例えば、表示可能化ユニット1110によって)可能にするように構成される。
いくつかの実施形態では、処理ユニット1108は、ユーザ生成コンテンツを見るための要求に応じて、(例えば、置換ユニット1118によって)第2の領域で補足コンテンツの1つ又は複数の項目を補足コンテンツの1つ又は複数の項目の表現に置き換えるように構成される。
いくつかの実施形態では、処理ユニット1108は、補足コンテンツの個々の項目の表現の選択を(例えば、検出ユニット1112によって)検出し、表現の選択の検出に応じて、補足コンテンツの個々の項目の表示を(例えば、表示可能化ユニット1110によって)可能にするように構成される。
いくつかの実施形態では、処理ユニット1108は、ユーザ生成コンテンツを見るための要求に応じて、第2の領域を(例えば、縮小ユニット1120によって)縮小し、第3の領域を(例えば、拡大ユニット1122によって)拡大するように構成される。
いくつかの実施形態では、要求の受信は、デバイスのユーザによるユーザ生成コンテンツの表現の選択を(例えば、検出ユニット1112によって)検出することを含む。
いくつかの実施形態では、補足コンテンツの1つ又は複数の項目は、各々、主要コンテンツ内の個々のアンカー位置に関連付けられ、補足コンテンツの個々の項目は、表示ユニット1102上に、補足コンテンツの個々の項目に関する個々のアンカー位置に近接する第2の領域内の位置に表示される。
いくつかの実施形態では、ユーザ生成コンテンツの1つ又は複数の項目は、各々、主要コンテンツ内の個々のアンカー位置に関連付けられ、ユーザ生成コンテンツの個々の項目は、表示ユニット1102上に、ユーザ生成コンテンツの個々の項目に関する個々のアンカー位置に近接する第3の領域内の位置に表示される。
いくつかの実施形態では、第1の領域は、表示ユニット1102上の第2の領域及び第3の領域間に表示される。
いくつかの実施形態では、主要コンテンツは主にテキストで構成される。
いくつかの実施形態では、ユーザ生成コンテンツは、主要コンテンツに関連付けられた注釈を含む。
いくつかの実施形態では、ユーザ生成コンテンツは、補足コンテンツに関連付けられた注釈を含む。
いくつかの実施形態では、前に表示された補足コンテンツの少なくとも一部の表示の中止は、第2のセグメントを少なくとも部分的に表示ユニット1102の外にスライドさせるように、予め定義された方向にスライドするセグメント化されたユーザインタフェースのアニメーション変化の表示を(例えば、表示可能化ユニット1110によって)可能にすることを含む。
いくつかの実施形態では、アニメーション変化は、第3のセグメントを表示ユニット1102上にスライドさせることをさらに含む。
いくつかの実施形態では、スライドは、コンテンツをスクロールさせることができる方向に垂直な方向に生じる。
いくつかの実施形態によれば、図12は、上述した本発明の原理に従って構成された電子デバイス1200の機能ブロック図を示す。デバイスの機能ブロックは、本発明の原理を実行するように、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてよい。図12に示す機能ブロックは、上述した本発明の原理を実施するように、結合又はサブブロックに分離されてよいことは、当業者によって理解される。したがって、本明細書の記載は、本明細書に記載の機能ブロックの任意の可能な組み合わせ若しくは分離、又はさらなる定義をサポートすることができる。
図12に示すように、電子デバイス1200は、主要コンテンツ及び補足コンテンツを有する文書を格納するように構成された記憶ユニット1206と、文書のコンテンツを文書プレゼンテーションアプリケーションの第1の表示モードで表示するように構成された表示ユニット1202とを含む。第1の表示モードでは、補足コンテンツは主要コンテンツと視覚的に一体化される。電子デバイス1200は、また、ユーザ入力を受信するように構成されたタッチ感知表面ユニット1204と、記憶ユニット1206、表示ユニット1202、及びタッチ感知表面ユニット1204に結合された処理ユニット1208とを含む。いくつかの実施形態では、処理ユニット1208は、表示可能化ユニット1210、検出ユニット1212、ナビゲートユニット1214、スクロールユニット1216、及び再配置ユニット1218を含む。
処理ユニット1208は、表示ユニット1202が文書のコンテンツを第1の表示モードで表示しながら、文書プレゼンテーションアプリケーションの第2の表示モードで文書のコンテンツを表示させるための要求を受信し、要求に応じて、表示ユニット上の第2の表示モードでの文書のコンテンツの表示を(例えば、表示可能化ユニット1210によって)可能にするように構成される。第2の表示モードでは、補足コンテンツの表現は、主要コンテンツから視覚的に分離される。
いくつかの実施形態では、第1の表示モード及び第2の表示モードは、両方共、表示ユニット1202上で文書を見るためにエンドユーザが使用するための表示モードである。
いくつかの実施形態では、第1の表示モードで補足コンテンツを主要コンテンツと視覚的に一体化することは、表示ユニット1202上の主要コンテンツと直列の補足コンテンツの表示を(例えば、表示可能化ユニット1210)によって可能にすることを含む。
いくつかの実施形態では、第2の表示モードで補足コンテンツの表現を主要コンテンツから視覚的に分離することは、補足コンテンツを含まない表示ユニット1202上のユーザインタフェースの第1の領域への主要コンテンツの表示を(例えば、表示可能化ユニット1210によって)可能にすること、及び、ユーザインタフェースの第1の領域と別の、主要コンテンツを含まない表示ユニット1202上のユーザインタフェースの第2の領域への補足コンテンツの表現の表示を(例えば、表示可能化ユニット1210によって)可能にすることを含む。
いくつかの実施形態では、第1の表示モードでは、補足コンテンツの複数の項目が表示ユニット1202上に同時に表示される。
いくつかの実施形態では、第1の表示モードは、主要コンテンツ及び補足コンテンツが文書の作成者によって指定されたテンプレートにしたがって配置される、作成者指定の表示モードである。
いくつかの実施形態では、第2の表示モードは、第2の表示モードは、作成者指定の表示モードでテキストの別個のブロックとして表示される主要コンテンツ内のテキストの2つ以上の部分が表示ユニット1202上のテキストの同じ連続するブロック内に表示される、テキストレビュー表示モードである。
いくつかの実施形態では、補足コンテンツの項目は、第1の表示モードでは表示ユニット1202上に第1のサイズで表示され、補足コンテンツの項目の表現は、第2の表示モードで表示される。補足コンテンツ項目の表現は、表示ユニット1202上で第1のサイズより小さい第2のサイズを有する。
いくつかの実施形態では、第1の表示モードでは、補足コンテンツは補足コンテンツの1つ又は複数の項目を含み、処理ユニット1208は、第2の表示モードでは、第1の表示モードで表示された補足コンテンツの対応する項目を置き換える1つ又は複数の補足コンテンツアイコンの表示ユニット1202での表示を(例えば、表示可能化ユニット1210によって)可能にし、個々の補足コンテンツアイコンの選択を(例えば、検出ユニット1212によって)検出し、選択の検出に応じて、表示ユニット1202上の補足コンテンツの対応する項目の表示を(例えば、表示可能化ユニット1210によって)可能にするように構成される。
いくつかの実施形態では、第1の表示モードは、主要コンテンツ内のテキストの読む方向に対する第1のコンテンツ進行方向を有し、第2の表示モードは、第1のコンテンツ進行方向と別の、主要コンテンツの読む方向に対する第2のコンテンツ進行方向を有する。
いくつかの実施形態では、主要コンテンツは複数のページ境界を含み、処理ユニット1208は、文書をナビゲートするための要求を(例えば、検出ユニット1212によって)検出し、文書をナビゲートするための要求の検出に応じて、デバイスが第1の表示モードにあることの決定にしたがって、ページ境界にしたがって続いて隣接するページに(例えば、ナビゲートユニット1214によって)ナビゲートし、デバイスが第2の表示モードにあることの決定にしたがって、要求に関連付けられた値の大きさに応じた文書のスクロールを(例えば、スクロールユニット1216によって)可能にするように構成される。
いくつかの実施形態では、補足コンテンツの個々の項目は、主要コンテンツの予め定義された部分に関連付けられ、第1の表示モードでは、補足コンテンツの個々の項目は、主要コンテンツの予め定義された部分に近接して表示ユニット1202上に表示され、第2の表示モードでは、補足コンテンツの個々の項目の表現が、主要コンテンツの予め定義された部分に近接して表示ユニット1202上に表示される。
いくつかの実施形態では、処理ユニット1208は、第2の表示モードで主要コンテンツの予め定義された部分及び補足コンテンツの個々の部分の表現の表示を可能にしながら、主要コンテンツをナビゲートするための要求を(例えば、検出ユニット1212によって)検出し、主要コンテンツをナビゲートするための要求の検出に応じて、主要コンテンツをナビゲートするための要求にしたがって主要コンテンツの予め定義された部分を表示ユニット1202上の更新された位置に(例えば、再配置ユニット1218によって)再配置し、主要コンテンツの予め定義された部分の更新された位置にしたがって補足コンテンツの個々の項目の表現を(例えば、再配置ユニット1218によって)再配置する。
いくつかの実施形態では、表示ユニット1202は長軸及び短軸を有する。第1の表示モードでは、テキストの読む方向は、長軸と整列される。第2の表示モードでは、テキストの読む方向は、短軸と整列される。
いくつかの実施形態では、第2の表示モードで文書のコンテンツを表示させるための要求の受信は、デバイスの回転の(例えば、検出ユニット1212による)検出を含む。
いくつかの実施形態によれば、図13は、上述した本発明の原理に従って構成された電子デバイス1300の機能ブロック図を示す。デバイスの機能ブロックは、本発明の原理を実行するように、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてよい。図13に示す機能ブロックは、上述した本発明の原理を実施するように、結合又はサブブロックに分離されてよいことは、当業者によって理解される。したがって、本明細書の記載は、本明細書に記載の機能ブロックの任意の可能な組み合わせ若しくは分離、又はさらなる定義をサポートすることができる。
図13に示すように、電子デバイス1300は、文書内に個々の位置を有する複数の特徴を有する文書を格納するように構成された記憶ユニット1306を含む。複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスの第2の特徴形式の特徴とを含む。第2の特徴形式は第1の特徴形式とは異なる。電子デバイス1300は、また、文書の少なくとも一部を表示するように構成された表示ユニット1302と、第1のジェスチャを検出するように構成されたタッチ感知表面ユニット1304と、記憶ユニット1306、表示ユニット1302、及びタッチ感知表面ユニット1304に結合された処理ユニット1308とを含む。いくつかの実施形態では、処理ユニット1308は、表示可能化ユニット1310、検出ユニット1312、及びナビゲートユニット1314を含む。
処理ユニット1308は、第1のジェスチャの(例えば、検出ユニット1312による)検出に応じて、第1のジェスチャが単一接触ジェスチャであることの決定にしたがって、文書内の第1の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部に(例えば、ナビゲートユニット1314によって)ナビゲートし、第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであることの決定にしたがって、文書内の第2の特徴形式の続いて隣接する特徴を含む又はそれに近接して位置する文書の一部に(例えば、ナビゲートユニット1314によって)ナビゲートするように構成される。
いくつかの実施形態では、第1の特徴形式はページ又はページ区切りである。
いくつかの実施形態では、第2の特徴形式は、セクション、セクション区切り、章、章区切り、又は注釈の1つである。
いくつかの実施形態では、第1のジェスチャはスワイプジェスチャである。
いくつかの実施形態では、複数接触ジェスチャは2接触スワイプジェスチャであり、特徴の第2の形式はセクション区切りである。
いくつかの実施形態では、複数接触ジェスチャは2接触スワイプジェスチャであり、特徴の第2の形式は章区切りである。
いくつかの実施形態では、複数接触ジェスチャは3接触スワイプジェスチャであり、特徴の第2の形式は注釈である。
いくつかの実施形態では、第1のジェスチャは方向を有する。ジェスチャの方向が第1の方向の成分を含むことの決定にしたがって、続いて隣接する特徴は直後の特徴である。ジェスチャの方向が第1の方向と反対の第2の方向の成分を含むことの決定にしたがって、続いて隣接する特徴は直前の特徴である。
いくつかの実施形態によれば、図14は、上述した本発明の原理に従って構成された電子デバイス1400の機能ブロック図を示す。デバイスの機能ブロックは、本発明の原理を実行するように、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてよい。図14に示す機能ブロックは、上述した本発明の原理を実施するように、結合又はサブブロックに分離されてよいことは、当業者によって理解される。したがって、本明細書の記載は、本明細書に記載の機能ブロックの任意の可能な組み合わせ若しくは分離、又はさらなる定義をサポートすることができる。
図14に示すように、電子デバイス1400は、複数セグメント文書の一部を表示するように構成された表示ユニット1402を含む。複数セグメント文書のセグメントの第1の組は、1つ又は複数の個々の注釈を各々有し、複数セグメント文書のセグメントの第2の組は注釈を持たない。電子デバイス1400は、また、予め定義されたジェスチャを検出するように構成されたタッチ感知表面ユニット1404と、表示ユニット1402及びタッチ感知表面ユニット1404に結合された処理ユニット1408とを含む。いくつかの実施形態では、処理ユニット1406は、表示可能化ユニット1408、検出ユニット1410、及び中止ユニット1412を含む。
処理ユニット1406は、予め定義されたジェスチャの(例えば、検出ユニット1410による)検出に応じて、セグメントの第1の組内のセグメントの表現のみを含むセグメント表現の配列の表示を(例えば、表示可能化ユニット1408によって)可能にするように構成される。セグメント表現の配列内の複数の個々のセグメント表現は、各々、個々のセグメント表現に関する個々のセグメントに関連する個々の注釈の視覚的指標を含む。
いくつかの実施形態では、処理ユニット1406は、予め定義されたジェスチャの(例えば、検出ユニット1410による)検出に応じて、表示ユニット1402上の複数セグメント文書の一部の表示を(例えば、中止ユニット1412によって)中止するように構成される。
いくつかの実施形態では、個々の注釈の視覚的指標は、視覚的指標に関連付けられた注釈の形式についての情報を提供する。
いくつかの実施形態では、特定のセグメントのセグメント表現は、特定のセグメントのサムネイル画像であり、特定のセグメントに関する視覚的指標は、特定のセグメントに関する注釈の縮小されたスケールの複製である。
いくつかの実施形態では、個々の注釈は、複数セグメント文書の特定のセグメント内に個々のアンカー位置を有する。特定のセグメントのセグメント表現は、特定のセグメントのサムネイルである。特定のセグメントに関する視覚的指標は、特定のセグメント内の個々のアンカー位置に対応するサムネイル内の位置に表示される。
いくつかの実施形態によれば、図15は、上述した本発明の原理に従って構成された電子デバイス1500の機能ブロック図を示す。デバイスの機能ブロックは、本発明の原理を実行するように、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実装されてよい。図15に示す機能ブロックは、上述した本発明の原理を実施するように、結合又はサブブロックに分離されてよいことは、当業者によって理解される。したがって、本明細書の記載は、本明細書に記載の機能ブロックの任意の可能な組み合わせ若しくは分離、又はさらなる定義をサポートすることができる。
図15に示すように、電子デバイス1500は、文書の第1の部分、及び、文書をナビゲートするためのナビゲーションバーを同時に表示するように構成された表示ユニット1502と、文書の第2の部分に関連するナビゲーションバーの一部に対応するタッチ感知表面ユニット1504上の位置でジェスチャを検出するように構成されたタッチ感知表面ユニット1504とを含む。文書の第2の部分は、個々の注釈を含む。電子デバイス1500は、表示ユニット1502及びタッチ感知表面ユニット1504に結合された処理ユニット1506も含む。いくつかの実施形態では、処理ユニット1506は、表示可能化ユニット1508及び検出ユニット1510を含む。
処理ユニット1506は、ジェスチャの(例えば、検出ユニット1510による)検出に応じて、表示ユニット1502上の文書の第1の部分の表示を(例えば、表示可能化ユニット1508によって)可能にし続けながら、個々の注釈の表現を含む文書の第2の部分の表現の、表示ユニット1502上のナビゲーションバーの一部に近接する位置への表示を(例えば、表示可能化ユニット1508によって)可能にするように構成される。
いくつかの実施形態では、第2の部分の表現は、表示ユニット1502上で、文書の第1の部分の少なくともサブ領域を覆う吹き出し内に表示される。
いくつかの実施形態では、第2の部分の表現は、第2の部分に関するセクションタイトルを含む。
いくつかの実施形態では、第2の部分の表現は代表的な画像を含む。
いくつかの実施形態では、個々の注釈はテキストの強調表示であり、個々の注釈の表現は、強調されたテキストを含む。
いくつかの実施形態では、個々の注釈はノートであり、個々の注釈の表現は、ノートのテキストを含む。
いくつかの実施形態では、個々の注釈はブックマークであり、個々の注釈の表現はブックマークアイコンを含む。
いくつかの実施形態では、文書の第2の部分は、文書の個々のページを含み、文書の第2の部分の表現は、個々のページのサムネイル画像を含み、個々の注釈の表現が表現ユニット1502上のサムネイル画像内に表示される。
いくつかの実施形態では、文書は複数のページを含み、文書の第2の部分の表現は、文書内の2つ以上のページの表現を含む。
上述した情報処理方法内の動作は、汎用プロセッサ又は用途特定向けチップのような情報処理装置内で1つ又は複数の機能モジュールを実行することによって実施されてよい。これらのモジュール、これらのモジュールの組み合わせ、及び/又は、それらと一般的なハードウェアとの組み合わせ(例えば、図1A及び3に関連して上述したような)は、本発明の保護範囲内にすべて含まれる。
図6A〜6C、7A〜7C、8、9、及び10に関連して上述した動作は、図1A〜1Bに示す構成要素によって実施されてよい。例えば、受信動作618、表示動作634、並びに、検出及び表示動作638は、イベントソータ170、イベント認識器180、及びイベントハンドラ190によって実施されてよい。イベントソータ170内のイベントモニタ171はタッチ感知ディスプレイ112上の接触を検出し、イベントディスパッチャモジュール174は、イベント情報をアプリケーション136−1に送達する。アプリケーション136−1の個々のイベント認識器180は、イベント情報を個々のイベント定義186と比較し、タッチ感知表面上の第1の位置での第1の接触が、ユーザインタフェース上のオブジェクトの選択のような予め定義されたイベント若しくはサブイベントに対応するかどうか、又は、(デバイスの回転が)ある向きから他の向きへのデバイスの回転かどうかを決定する。個々の予め定義されたイベント又はサブイベントが検出されると、イベント認識器180は、イベント又はサブイベントの検出に関連するイベントハンドラ190を活性化する。イベントハンドラ190は、アプリケーション内部状態192を更新するために、データアップデータ176又はオブジェクトアップデータ177を利用又は呼び出してよい。いくつかの実施形態では、イベントハンドラ190は、アプリケーションによって何が表示されるかを更新するために、個々のGUIアップデータ178にアクセスする。同様に、他のプロセスを図1A〜1Bに示す構成要素に基づいてどのように実施することができるかは、当業者には明らかであろう。
説明の目的のための前述の説明は、特定の実施形態に関して記述されてきた。しかしながら、上記の例示的な議論は、網羅的であることを、又は、本発明を開示された正確な形態に限定することを目的としない。多くの変更及び変形が、上記の教示に鑑みて可能である。実施形態は、本発明の原理及びその実際的な用途を最良に説明し、したがって、当業者が、本発明、及び、考えられる特定の使用に適するように種々の変更を伴う種々の実施形態を最良に利用することを可能にするために選択され、記載された。

Claims (27)

  1. 電子デバイスであって、
    ディスプレイと、
    タッチ感知表面と、
    1以上のプロセッサと、
    メモリと、
    1以上のプログラムと、
    を備え、前記1以上のプログラムは、前記メモリ内に格納され、前記1以上のプロセッサによって実行されるように構成され、前記1以上のプログラムは、
    文書内で個別位置を持つ複数の特徴を有する前記文書を格納し、前記複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスのユーザ注釈と、を含み、前記ユーザ注釈は前記第1の特徴形式とは異なり、
    前記文書の少なくとも一部を前記ディスプレイに表示し、
    前記タッチ感知表面上で第1のジェスチャを検出し、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが単一接触ジェスチャであるという判定に従い、前記文書内の前記第1の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートし、
    前記第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内のシーケンス的に隣接するユーザ注釈を含む又はこれに近接して位置する前記文書の部分にナビゲートする
    命令を含む、電子デバイス。
  2. 請求項1に記載のデバイスであって、前記第1の特徴形式はページ又はページ区切りである、
    デバイス。
  3. 請求項1に記載のデバイスであって、前記第1のジェスチャはスワイプジェスチャである、
    デバイス。
  4. 請求項1に記載のデバイスであって、前記複数接触ジェスチャは2接触スワイプジェスチャである、
    デバイス。
  5. 請求項1に記載のデバイスであって、前記複数接触ジェスチャは3接触スワイプジェスチャである、
    デバイス。
  6. 請求項1に記載のデバイスであって、
    前記第1のジェスチャは方向を持ち、
    前記ジェスチャの前記方向が第1の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直後の特徴となり、
    前記ジェスチャの前記方向が前記第1の方向と反対の第2の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直前の特徴となる、
    デバイス。
  7. 請求項1に記載のデバイスであって、前記文書内で個別位置を持つ前記複数の特徴は、第3のシーケンスの第3の特徴形式の特徴を更に含み、前記1以上のプログラムは、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが第2の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内の前記第3の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートする
    命令を含む、デバイス。
  8. 請求項7に記載のデバイスであって、前記第1の予め定義された数の接触は3であり、前記第2の予め定義された数の接触は2である、
    デバイス。
  9. 請求項7に記載のデバイスであって、前記第1の特徴形式はページ又はページ区切りであり、前記第3の特徴形式は、セクション、セクション区切り、章、又は章区切りのうちの1つである、
    デバイス。
  10. 方法であって、
    ディスプレイ及びタッチ感知表面を有する電子デバイスにおいて、
    文書内で個別位置を持つ複数の特徴を有する前記文書を格納することであって、前記複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスのユーザ注釈と、を含み、前記ユーザ注釈は前記第1の特徴形式とは異なる、ことと、
    前記文書の少なくとも一部を前記ディスプレイに表示することと、
    前記タッチ感知表面上で第1のジェスチャを検出することと、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが単一接触ジェスチャであるという判定に従い、前記文書内の前記第1の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートすることと、
    前記第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内のシーケンス的に隣接するユーザ注釈を含む又はこれに近接して位置する前記文書の部分にナビゲートすることと、
    を備える、方法。
  11. 請求項10に記載の方法であって、前記第1の特徴形式はページ又はページ区切りである、
    方法。
  12. 請求項10に記載の方法であって、前記第1のジェスチャはスワイプジェスチャである、
    方法。
  13. 請求項10に記載の方法であって、前記複数接触ジェスチャは2接触スワイプジェスチャである、
    方法。
  14. 請求項10に記載の方法であって、前記複数接触ジェスチャは3接触スワイプジェスチャである、
    方法。
  15. 請求項10に記載の方法であって、
    前記第1のジェスチャは方向を持ち、
    前記ジェスチャの前記方向が第1の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直後の特徴となり、
    前記ジェスチャの前記方向が前記第1の方向と反対の第2の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直前の特徴となる、
    方法。
  16. 請求項10に記載の方法であって、前記文書内で個別位置を持つ前記複数の特徴は、第3のシーケンスの第3の特徴形式の特徴を更に含み、前記方法は更に、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが第2の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内の前記第3の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートすること
    を含む、方法。
  17. 請求項16に記載の方法であって、前記第1の予め定義された数の接触は3であり、前記第2の予め定義された数の接触は2である、
    方法。
  18. 請求項16に記載の方法であって、前記第1の特徴形式はページ又はページ区切りであり、前記第3の特徴形式は、セクション、セクション区切り、章、又は章区切りのうちの1つである、
    方法。
  19. 命令を含むプログラムであって、前記命令は、ディスプレイ及びタッチ感知表面を有する電子デバイスにより実行されると、前記デバイスに、
    文書内で個別位置を持つ複数の特徴を有する前記文書を格納させ、前記複数の特徴は、第1のシーケンスの第1の特徴形式の特徴と、第2のシーケンスのユーザ注釈と、を含み、前記ユーザ注釈は前記第1の特徴形式とは異なり、
    前記文書の少なくとも一部を前記ディスプレイに表示させ、
    前記タッチ感知表面上で第1のジェスチャを検出させ、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが単一接触ジェスチャであるという判定に従い、前記文書内の前記第1の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートさせ、
    前記第1のジェスチャが第1の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内のシーケンス的に隣接するユーザ注釈を含む又はこれに近接して位置する前記文書の部分にナビゲートさせる、
    プログラム。
  20. 請求項19に記載のプログラムであって、前記第1の特徴形式はページ又はページ区切りである、
    プログラム。
  21. 請求項19に記載のプログラムであって、前記第1のジェスチャはスワイプジェスチャである、
    プログラム。
  22. 請求項19に記載のプログラムであって、前記複数接触ジェスチャは2接触スワイプジェスチャである、
    プログラム。
  23. 請求項19に記載のプログラムであって、前記複数接触ジェスチャは3接触スワイプジェスチャである、
    プログラム。
  24. 請求項19に記載のプログラムであって、
    前記第1のジェスチャは方向を持ち、
    前記ジェスチャの前記方向が第1の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直後の特徴となり、
    前記ジェスチャの前記方向が前記第1の方向と反対の第2の方向の成分を含むという判定に従い、前記シーケンス的に隣接する特徴は直前の特徴となる、
    プログラム。
  25. 請求項19に記載のプログラムであって、前記文書内で個別位置を持つ前記複数の特徴は、第3のシーケンスの第3の特徴形式の特徴を更に含み、前記プログラムは、前記デバイスに、
    前記第1のジェスチャを検出したことに応じて、
    前記第1のジェスチャが第2の予め定義された数の接触による複数接触ジェスチャであるという判定に従い、前記文書内の前記第3の特徴形式のシーケンス的に隣接する特徴を含む又はこれに近接して位置する前記文書の部分にナビゲートさせる
    命令を含む、プログラム。
  26. 請求項25に記載のプログラムであって、前記第1の予め定義された数の接触は3であり、前記第2の予め定義された数の接触は2である、
    プログラム。
  27. 請求項25に記載のプログラムであって、前記第1の特徴形式はページ又はページ区切りであり、前記第3の特徴形式は、セクション、セクション区切り、章、又は章区切りのうちの1つである、
    プログラム。
JP2016130565A 2011-01-24 2016-06-30 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース Active JP6216839B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201161435781P 2011-01-24 2011-01-24
US61/435,781 2011-01-24
US13/077,850 US9442516B2 (en) 2011-01-24 2011-03-31 Device, method, and graphical user interface for navigating through an electronic document
US13/077,850 2011-03-31
US13/077,855 US9671825B2 (en) 2011-01-24 2011-03-31 Device, method, and graphical user interface for navigating through an electronic document
US13/077,855 2011-03-31

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013550664A Division JP5964861B2 (ja) 2011-01-24 2012-01-24 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース

Publications (2)

Publication Number Publication Date
JP2016194944A JP2016194944A (ja) 2016-11-17
JP6216839B2 true JP6216839B2 (ja) 2017-10-18

Family

ID=46545081

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013550664A Active JP5964861B2 (ja) 2011-01-24 2012-01-24 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2016130565A Active JP6216839B2 (ja) 2011-01-24 2016-06-30 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013550664A Active JP5964861B2 (ja) 2011-01-24 2012-01-24 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース

Country Status (7)

Country Link
US (5) US9552015B2 (ja)
EP (2) EP3410284A1 (ja)
JP (2) JP5964861B2 (ja)
KR (4) KR101528993B1 (ja)
CN (2) CN107122004B (ja)
AU (2) AU2012209199B2 (ja)
WO (1) WO2012103117A1 (ja)

Families Citing this family (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101716894B1 (ko) * 2010-10-08 2017-03-16 엘지전자 주식회사 이동 단말기 및 그 제어방법
US9245259B2 (en) 2011-01-14 2016-01-26 Apple Inc. Presenting E-mail on a touch device
US9552015B2 (en) 2011-01-24 2017-01-24 Apple Inc. Device, method, and graphical user interface for navigating through an electronic document
US8694903B2 (en) * 2011-03-04 2014-04-08 Verizon Patent And Licensing Inc. Methods and systems for managing an e-reader interface
US9575615B1 (en) 2011-03-22 2017-02-21 Amazon Technologies, Inc. Presenting supplemental content
KR101859100B1 (ko) * 2011-07-19 2018-05-17 엘지전자 주식회사 휴대 전자기기 및 이의 제어방법
US9256361B2 (en) * 2011-08-03 2016-02-09 Ebay Inc. Control of search results with multipoint pinch gestures
US9311426B2 (en) * 2011-08-04 2016-04-12 Blackberry Limited Orientation-dependent processing of input files by an electronic device
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
KR20130050606A (ko) * 2011-11-08 2013-05-16 삼성전자주식회사 터치스크린을 구비한 전자 기기에서 독서 실행 방법 및 장치
US9418068B2 (en) * 2012-01-27 2016-08-16 Microsoft Technology Licensing, Llc Dimensional conversion in presentations
US9645724B2 (en) 2012-02-01 2017-05-09 Facebook, Inc. Timeline based content organization
US9235317B2 (en) 2012-02-01 2016-01-12 Facebook, Inc. Summary and navigation of hierarchical levels
US9557876B2 (en) 2012-02-01 2017-01-31 Facebook, Inc. Hierarchical user interface
WO2013123124A1 (en) * 2012-02-15 2013-08-22 Keyless Systems Ltd. Improved data entry systems
AU2013202944B2 (en) 2012-04-26 2015-11-12 Samsung Electronics Co., Ltd. Method and terminal for displaying a plurality of pages, method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
US9261961B2 (en) 2012-06-07 2016-02-16 Nook Digital, Llc Accessibility aids for users of electronic devices
US20150160805A1 (en) * 2012-06-13 2015-06-11 Qatar Foundation Electronic Reading Device and Method Therefor
US9021437B2 (en) * 2012-07-13 2015-04-28 Microsoft Technology Licensing, Llc Declarative style rules for default touch behaviors
US20140026101A1 (en) * 2012-07-20 2014-01-23 Barnesandnoble.Com Llc Accessible Menu Navigation Techniques For Electronic Devices
US20140109012A1 (en) * 2012-10-16 2014-04-17 Microsoft Corporation Thumbnail and document map based navigation in a document
US20140115446A1 (en) * 2012-10-22 2014-04-24 Apple Inc. Content Control Tools for a Document Authoring Application
US9262523B2 (en) * 2012-10-29 2016-02-16 Adobe Systems Incorporated Enhancement of touch user experiences
US11270058B2 (en) * 2012-11-29 2022-03-08 Red Hat, Inc. Referencing a portion of a document
US20140195890A1 (en) * 2013-01-09 2014-07-10 Amazon Technologies, Inc. Browser interface for accessing supplemental content associated with content pages
WO2014110048A1 (en) * 2013-01-09 2014-07-17 Amazon Technologies, Inc. Browser interface for accessing supple-mental content associated with content pages
US9971495B2 (en) 2013-01-28 2018-05-15 Nook Digital, Llc Context based gesture delineation for user interaction in eyes-free mode
US8976202B2 (en) 2013-01-28 2015-03-10 Dave CAISSY Method for controlling the display of a portable computing device
EP2951665B1 (en) 2013-01-31 2018-11-21 Hewlett-Packard Development Company, L.P. Electronic device with touch gesture adjustment of a graphical representation
US20140279028A1 (en) * 2013-03-15 2014-09-18 Yume, Inc. Mobile Display Device with Flip-Screen Functionality
US20140298258A1 (en) * 2013-03-28 2014-10-02 Microsoft Corporation Switch List Interactions
US20140325407A1 (en) * 2013-04-25 2014-10-30 Microsoft Corporation Collection, tracking and presentation of reading content
USD745528S1 (en) * 2013-05-10 2015-12-15 Samsung Electronics Co., Ltd. Portable electronic device with graphical user interface
WO2014200676A2 (en) 2013-06-09 2014-12-18 Apple Inc. Device, method, and graphical user interface for moving user interface objects
JP5809202B2 (ja) * 2013-06-21 2015-11-10 シャープ株式会社 画面操作可能な画像表示装置及びその操作方法
US10545657B2 (en) 2013-09-03 2020-01-28 Apple Inc. User interface for manipulating user interface objects
US9733784B1 (en) * 2013-09-03 2017-08-15 Amazon Technologies, Inc. Content preview for electronic devices
US20150100874A1 (en) * 2013-10-04 2015-04-09 Barnesandnoble.Com Llc Ui techniques for revealing extra margin area for paginated digital content
JP2015087911A (ja) * 2013-10-30 2015-05-07 株式会社東芝 電子機器、方法及びプログラム
US9389757B1 (en) 2013-12-02 2016-07-12 Amazon Technologies, Inc. Content preview for electronic devices
US10620796B2 (en) * 2013-12-19 2020-04-14 Barnes & Noble College Booksellers, Llc Visual thumbnail scrubber for digital content
CN103886044A (zh) * 2014-03-11 2014-06-25 百度在线网络技术(北京)有限公司 搜索结果的提供方法和装置
JP5959560B2 (ja) * 2014-03-20 2016-08-02 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US20150277726A1 (en) * 2014-04-01 2015-10-01 Microsoft Corporation Sliding surface
US9547630B2 (en) * 2014-04-08 2017-01-17 International Business Machines Corporation Identification of multimedia content in paginated data using metadata
WO2015183367A1 (en) 2014-05-30 2015-12-03 Apple Inc. Continuity
US9430141B1 (en) * 2014-07-01 2016-08-30 Amazon Technologies, Inc. Adaptive annotations
KR20160009935A (ko) 2014-07-17 2016-01-27 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170045401A (ko) * 2014-08-29 2017-04-26 주식회사 퓨처플레이 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
US10073590B2 (en) 2014-09-02 2018-09-11 Apple Inc. Reduced size user interface
WO2016036413A1 (en) 2014-09-02 2016-03-10 Apple Inc. Multi-dimensional object rearrangement
KR102373460B1 (ko) 2014-09-15 2022-03-11 삼성전자주식회사 디바이스에 객체를 표시하는 방법 및 그 디바이스
KR20160031823A (ko) * 2014-09-15 2016-03-23 삼성전자주식회사 디바이스에 객체를 표시하는 방법 및 그 디바이스
US20160140086A1 (en) * 2014-11-19 2016-05-19 Kobo Incorporated System and method for content repagination providing a page continuity indicium while e-reading
WO2016122663A1 (en) * 2015-01-30 2016-08-04 Hewlett-Packard Development Company, L.P. A physical document for navigation
US10126846B2 (en) * 2015-04-09 2018-11-13 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling selection of information
US20160299657A1 (en) * 2015-04-10 2016-10-13 Apple Inc. Gesture Controlled Display of Content Items
US10691323B2 (en) 2015-04-10 2020-06-23 Apple Inc. Column fit document traversal for reader application
US10074200B1 (en) * 2015-04-22 2018-09-11 Amazon Technologies, Inc. Generation of imagery from descriptive text
US10101882B2 (en) 2015-06-05 2018-10-16 Apple Inc. Movement between multiple views
KR101901485B1 (ko) * 2015-07-05 2018-09-21 유왕상 전자적 텍스트 열람 시스템
US10346019B2 (en) * 2016-01-09 2019-07-09 Apple Inc. Graphical user interface for providing video in a document reader application
US10346406B2 (en) * 2016-03-28 2019-07-09 International Business Machines Corporation Decentralized autonomous edge compute coordinated by smart contract on a blockchain
US9965475B2 (en) * 2016-03-31 2018-05-08 Microsoft Technology Licensing, Llc User interface for navigating comments associated with collaboratively edited electronic documents
KR102594951B1 (ko) * 2016-06-03 2023-10-27 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10637986B2 (en) 2016-06-10 2020-04-28 Apple Inc. Displaying and updating a set of application views
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
DK201670616A1 (en) * 2016-06-12 2018-01-22 Apple Inc Devices and Methods for Accessing Prevalent Device Functions
US10613747B2 (en) 2017-01-13 2020-04-07 International Business Machines Corporation Creating and manipulating layers on a user device using touch gestures
CN107562348B (zh) * 2017-09-07 2022-03-18 北京小米移动软件有限公司 内容显示方法及装置
CN107728918A (zh) * 2017-09-27 2018-02-23 北京三快在线科技有限公司 浏览连续页面的方法、装置及电子设备
CN111133430B (zh) * 2017-09-29 2022-12-02 荣耀终端有限公司 一种内容分享方法及装置
WO2019130333A1 (en) * 2017-12-28 2019-07-04 Bodhaguru Learning Private Limited Learning device and method thereof
CN108255386B (zh) * 2018-02-12 2019-07-05 掌阅科技股份有限公司 电子书手写笔记的显示方法、计算设备及计算机存储介质
US10657318B2 (en) * 2018-08-01 2020-05-19 Microsoft Technology Licensing, Llc Comment notifications for electronic content
KR102053079B1 (ko) * 2018-08-29 2019-12-06 주식회사 한글과컴퓨터 캡션 기반의 참조 개체의 표시가 가능한 전자 문서 편집 장치 및 그 동작 방법
CN110119234B (zh) * 2019-04-08 2022-09-23 广州视源电子科技股份有限公司 一种智能交互平板的操作方法、存储介质及相关设备
DK180359B1 (en) 2019-04-15 2021-02-03 Apple Inc Accelerated scrolling and selection
CN110262723B (zh) * 2019-06-24 2022-04-15 广州市托奥智能科技有限公司 一种办公辅助方法及辅助系统
KR102300434B1 (ko) * 2019-10-24 2021-09-09 주식회사 한글과컴퓨터 프레젠테이션 문서의 슬라이드 쇼 화면에서 슬라이드 영역을 벗어난 개체의 표시를 가능하게 하는 전자 장치 및 그 동작 방법
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
US20240012555A1 (en) * 2022-07-07 2024-01-11 Google Llc Identifying and navigating to a visual item on a web page

Family Cites Families (148)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3470163B2 (ja) 1992-09-30 2003-11-25 富士ゼロックス株式会社 傍注付き文書割付装置
US7835989B1 (en) 1992-12-09 2010-11-16 Discovery Communications, Inc. Electronic book alternative delivery systems
US5463725A (en) * 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
CA2124028C (en) 1994-05-20 2000-07-25 Derek Kent William Smith Directional actuator for electronic media navigation
JPH0876926A (ja) * 1994-09-02 1996-03-22 Brother Ind Ltd 画像表示装置
US6486895B1 (en) 1995-09-08 2002-11-26 Xerox Corporation Display system for displaying lists of linked documents
US6407757B1 (en) 1997-12-18 2002-06-18 E-Book Systems Pte Ltd. Computer-based browsing method and computer program product for displaying information in an electronic book form
US5870091A (en) 1996-11-07 1999-02-09 Adobe Systems Incorporated Combining palettes on a computer display
EP1015961A1 (en) 1997-08-22 2000-07-05 Natrificial LLC Method and apparatus for simultaneously resizing and relocating windows within a graphical display
WO1999010799A1 (en) 1997-08-22 1999-03-04 Natrificial Llc Method and apparatus for simultaneously resizing and relocating windows within a graphical display
US6600496B1 (en) 1997-09-26 2003-07-29 Sun Microsystems, Inc. Interactive graphical user interface for television set-top box
US7954056B2 (en) 1997-12-22 2011-05-31 Ricoh Company, Ltd. Television-based visualization and navigation interface
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
US6230170B1 (en) 1998-06-17 2001-05-08 Xerox Corporation Spatial morphing of text to accommodate annotations
JP4309997B2 (ja) 1998-06-17 2009-08-05 ゼロックス コーポレイション 注釈の表示方法
US6584479B2 (en) 1998-06-17 2003-06-24 Xerox Corporation Overlay presentation of textual and graphical annotations
US6141010A (en) * 1998-07-17 2000-10-31 B. E. Technology, Llc Computer interface method and apparatus with targeted advertising
US6058417A (en) 1998-10-23 2000-05-02 Ebay Inc. Information presentation and management in an online trading environment
JP2000242390A (ja) * 1999-02-18 2000-09-08 Sony Corp 情報の表示方法及び、情報表示装置
US6757906B1 (en) 1999-03-30 2004-06-29 Tivo, Inc. Television viewer interface system
US8689265B2 (en) 1999-03-30 2014-04-01 Tivo Inc. Multimedia mobile personalization system
US9811237B2 (en) 1999-04-06 2017-11-07 Iii Holdings 2, Llc Visual navigation of virtual environments through logical processes
JP2001101202A (ja) * 1999-09-29 2001-04-13 Minolta Co Ltd 電子ブック
US7185274B1 (en) 1999-12-07 2007-02-27 Microsoft Corporation Computer user interface architecture wherein users interact with both content and user interface by activating links
US7028267B1 (en) 1999-12-07 2006-04-11 Microsoft Corporation Method and apparatus for capturing and rendering text annotations for non-modifiable electronic content
US7458014B1 (en) 1999-12-07 2008-11-25 Microsoft Corporation Computer user interface architecture wherein both content and user interface are composed of documents with links
US6720981B1 (en) * 1999-12-08 2004-04-13 International Business Machines Corporation Method, system and program product for animated web page construction and display
JP2001265481A (ja) 2000-03-21 2001-09-28 Nec Corp ページ情報表示方法及び装置並びにページ情報表示用プログラムを記憶した記憶媒体
US20020120651A1 (en) 2000-09-12 2002-08-29 Lingomotors, Inc. Natural language search method and system for electronic books
US20020075334A1 (en) 2000-10-06 2002-06-20 Yfantis Evangelos A. Hand gestures and hand motion for replacing computer mouse events
CA2323569A1 (en) 2000-10-18 2002-04-18 Advanced Numerical Methods Ltd. Elastic presentation space
US7015910B2 (en) 2000-12-21 2006-03-21 Xerox Corporation Methods, systems, and computer program products for the display and operation of virtual three-dimensional books
US7240291B2 (en) 2000-12-21 2007-07-03 Xerox Corporation Methods, systems, and computer program products for display of information relating to a virtual three-dimensional book
US7069518B2 (en) 2000-12-21 2006-06-27 Xerox Corporation Indexing methods, systems, and computer program products for virtual three-dimensional books
US8699995B2 (en) 2008-04-09 2014-04-15 3D Radio Llc Alternate user interfaces for multi tuner radio device
US7366979B2 (en) * 2001-03-09 2008-04-29 Copernicus Investments, Llc Method and apparatus for annotating a document
US7103848B2 (en) 2001-09-13 2006-09-05 International Business Machines Corporation Handheld electronic book reader with annotation and usage tracking capabilities
US20030076352A1 (en) 2001-10-22 2003-04-24 Uhlig Ronald P. Note taking, organizing, and studying software
JP2003195998A (ja) 2001-12-26 2003-07-11 Canon Inc 情報処理装置及び情報処理装置の制御方法及び情報処理装置の制御プログラム及び記憶媒体
US20040205514A1 (en) 2002-06-28 2004-10-14 Microsoft Corporation Hyperlink preview utility and method
US7426693B2 (en) * 2002-08-07 2008-09-16 Global Apparel Network, Inc. Visual communications tool
US7627354B2 (en) 2002-08-30 2009-12-01 Qualcomm Incorporated Display format for handheld wireless communication devices
US7296230B2 (en) 2002-11-29 2007-11-13 Nippon Telegraph And Telephone Corporation Linked contents browsing support device, linked contents continuous browsing support device, and method and program therefor, and recording medium therewith
JP2006527439A (ja) 2003-06-13 2006-11-30 ユニヴァーシティ オブ ランカスター ユーザインタフェース
JP4193629B2 (ja) 2003-07-25 2008-12-10 ソニー株式会社 画面表示装置,プログラム,および画面表示方法
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
CN100555264C (zh) 2003-10-21 2009-10-28 国际商业机器公司 电子文档的注释方法、装置和系统
JP4396314B2 (ja) 2004-02-24 2010-01-13 日本電気株式会社 画像生成方法、画像生成装置および画像生成プログラム
JP4565495B2 (ja) 2004-11-10 2010-10-20 富士通株式会社 端末装置、端末装置のメール処理方法及びメール処理プログラム
KR101190462B1 (ko) * 2005-01-05 2012-10-11 힐크레스트 래보래토리스, 인크. 1-대-다 객체를 처리하기 위한 스케일링 및 레이아웃 방법및 시스템
US9275052B2 (en) 2005-01-19 2016-03-01 Amazon Technologies, Inc. Providing annotations of a digital work
US7760189B2 (en) 2005-01-21 2010-07-20 Lenovo Singapore Pte. Ltd Touchpad diagonal scrolling
US7627816B2 (en) 2005-04-12 2009-12-01 International Business Machines Corporation Method for providing a transient dictionary that travels with an original electronic document
JP3865141B2 (ja) * 2005-06-15 2007-01-10 任天堂株式会社 情報処理プログラム及び情報処理装置
US20080005064A1 (en) 2005-06-28 2008-01-03 Yahoo! Inc. Apparatus and method for content annotation and conditional annotation retrieval in a search context
WO2007031411A2 (en) 2005-09-14 2007-03-22 Irex Technologies B.V. Electronic reading device
US7836390B2 (en) * 2006-01-26 2010-11-16 Microsoft Corporation Strategies for processing annotations
US20070233736A1 (en) 2006-03-28 2007-10-04 Heyletsgo, Inc. Method and system for social and leisure life management
US20070239831A1 (en) 2006-04-06 2007-10-11 Yahoo! Inc. Interface for editing, binding, and displaying an annotation for a message
JP5210497B2 (ja) 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
US7859539B2 (en) 2006-05-27 2010-12-28 Christopher Vance Beckman Organizational viewing techniques
US7814112B2 (en) 2006-06-09 2010-10-12 Ebay Inc. Determining relevancy and desirability of terms
GB0612624D0 (en) 2006-06-26 2006-08-02 Symbian Software Ltd Speed of gesture
US9696808B2 (en) 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
CN101529874A (zh) * 2006-09-06 2009-09-09 苹果公司 用于具有触摸屏显示器的便携式多功能设备的电话呼入管理
KR100843077B1 (ko) 2006-09-28 2008-07-02 삼성전자주식회사 터치스크린 상에서 가변적인 크기로 그룹화된 정보를디스플레이하는 장치 및 방법
US7739622B2 (en) * 2006-10-27 2010-06-15 Microsoft Corporation Dynamic thumbnails for document navigation
US8185826B2 (en) 2006-11-30 2012-05-22 Microsoft Corporation Rendering document views with supplemental information content
US7793230B2 (en) 2006-11-30 2010-09-07 Microsoft Corporation Search term location graph
JP4982505B2 (ja) 2007-01-25 2012-07-25 シャープ株式会社 マルチウィンドウ管理装置及びプログラム、記憶媒体、並びに情報処理装置
US8990215B1 (en) * 2007-05-21 2015-03-24 Amazon Technologies, Inc. Obtaining and verifying search indices
US20080319975A1 (en) 2007-06-22 2008-12-25 Microsoft Corporation Exploratory Search Technique
US20090058820A1 (en) 2007-09-04 2009-03-05 Microsoft Corporation Flick-based in situ search from ink, text, or an empty selection region
JP5188132B2 (ja) 2007-09-27 2013-04-24 株式会社日立ハイテクノロジーズ データ処理装置の表示方法
JP4834640B2 (ja) 2007-09-28 2011-12-14 株式会社東芝 電子機器および画像表示制御方法
JP5234730B2 (ja) * 2007-11-05 2013-07-10 シャープ株式会社 電子機器、その制御方法およびコンピュータプログラム
KR101407636B1 (ko) 2007-11-05 2014-06-16 삼성전자주식회사 영상 표시 장치 및 그 제어 방법
US20090132957A1 (en) 2007-11-21 2009-05-21 Sharp Laboratories Of America Inc. System and method for selecting thumbnails in a multi-page document
US20090174679A1 (en) 2008-01-04 2009-07-09 Wayne Carl Westerman Selective Rejection of Touch Contacts in an Edge Region of a Touch Surface
JP5034960B2 (ja) * 2008-01-10 2012-09-26 ソニー株式会社 表示生成装置、表示生成方法、プログラム、およびコンテンツダウンロードシステム
US8140973B2 (en) 2008-01-23 2012-03-20 Microsoft Corporation Annotating and sharing content
US8112702B2 (en) 2008-02-19 2012-02-07 Google Inc. Annotating video intervals
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US20090235162A1 (en) 2008-03-11 2009-09-17 Disney Enterprises, Inc. Method and system for providing enhanced virtual books
JP4643673B2 (ja) 2008-03-14 2011-03-02 キヤノンItソリューションズ株式会社 情報処理装置、文書管理システム、情報処理装置の処理方法及びプログラム
KR101513023B1 (ko) 2008-03-25 2015-04-22 엘지전자 주식회사 단말기 및 이것의 정보 디스플레이 방법
US20090254867A1 (en) 2008-04-03 2009-10-08 Microsoft Corporation Zoom for annotatable margins
DE102008017840A1 (de) 2008-04-08 2009-10-29 Vodafone Holding Gmbh Elektronische Anzeigeeinrichtung sowie Verfahren zu deren Bedienung
KR20140147136A (ko) * 2008-04-15 2014-12-29 오페라 소프트웨어 에이에스에이 전자 문서의 선택 영역 표시 시 텍스트의 동적 래핑 방법 및 장치
SG190645A1 (en) 2008-04-24 2013-06-28 Movideo Pty Ltd System and method for tracking usage
TWI460622B (zh) 2008-06-20 2014-11-11 Elan Microelectronics 可解譯多物件手勢之觸控板模組及其操作方法
JP5093501B2 (ja) 2008-07-17 2012-12-12 日本電気株式会社 情報処理装置、プログラム、及び表示制御方法
US9191238B2 (en) 2008-07-23 2015-11-17 Yahoo! Inc. Virtual notes in a reality overlay
KR101495172B1 (ko) 2008-07-29 2015-02-24 엘지전자 주식회사 이동단말기 및 그의 이미지 제어방법
WO2010018579A2 (en) 2008-08-12 2010-02-18 Benjamin Firooz Ghassabian Improved data entry system
US8604364B2 (en) * 2008-08-15 2013-12-10 Lester F. Ludwig Sensors, algorithms and applications for a high dimensional touchpad
CN101655766B (zh) 2008-08-22 2012-03-28 鸿富锦精密工业(深圳)有限公司 可体现电子文档翻页效果的电子装置及其方法
US8595638B2 (en) 2008-08-28 2013-11-26 Nokia Corporation User interface, device and method for displaying special locations on a map
CN102203850A (zh) 2008-09-12 2011-09-28 格斯图尔泰克公司 相对于用户而定向所显示的元素
US8621045B2 (en) 2008-09-12 2013-12-31 At&T Intellectual Property I, L.P. Portable communication interface for accessing media content
KR101586627B1 (ko) 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
JP2010097353A (ja) 2008-10-15 2010-04-30 Access Co Ltd 情報端末
US8175612B2 (en) 2008-10-23 2012-05-08 Anansi Networks, Inc. System and method for map-based radio spectrum allocation search
US20100125807A1 (en) * 2008-11-18 2010-05-20 Jack Edward Easterday Electronic Scrolling Text Display
US9041660B2 (en) 2008-12-09 2015-05-26 Microsoft Technology Licensing, Llc Soft keyboard control
US20100185949A1 (en) 2008-12-09 2010-07-22 Denny Jaeger Method for using gesture objects for computer control
US8196061B1 (en) 2008-12-30 2012-06-05 Intuit Inc. Method and system for providing scroll bar enabled bookmarks in electronic document displays
US8499251B2 (en) 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
US9046924B2 (en) 2009-03-04 2015-06-02 Pelmorex Canada Inc. Gesture based interaction with traffic data
US20100242066A1 (en) 2009-03-19 2010-09-23 Cyberlink Corp. Method of Performing Random Seek Preview for Streaming Video
KR20120052897A (ko) * 2009-03-20 2012-05-24 필 테크놀로지스, 인크. 장치-기반 제어 시스템
KR101844366B1 (ko) 2009-03-27 2018-04-02 삼성전자 주식회사 터치 제스처 인식 장치 및 방법
JP5229084B2 (ja) 2009-04-14 2013-07-03 ソニー株式会社 表示制御装置、表示制御方法およびコンピュータプログラム
US8669945B2 (en) 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
US20100293498A1 (en) 2009-05-14 2010-11-18 Larenzo Maxfield Bible Interface for Computer
US20100289756A1 (en) 2009-05-15 2010-11-18 Anzures Freddy A Accelerometer-based control for radio broadcast receivers
KR101640463B1 (ko) 2009-05-19 2016-07-18 삼성전자 주식회사 휴대 단말기의 운용 방법 및 이를 지원하는 휴대 단말기
US8619029B2 (en) 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US9141768B2 (en) 2009-06-10 2015-09-22 Lg Electronics Inc. Terminal and control method thereof
US8290777B1 (en) * 2009-06-12 2012-10-16 Amazon Technologies, Inc. Synchronizing the playing and displaying of digital content
US9182854B2 (en) * 2009-07-08 2015-11-10 Microsoft Technology Licensing, Llc System and method for multi-touch interactions with a touch sensitive screen
US20110041056A1 (en) 2009-08-14 2011-02-17 Research In Motion Limited Electronic device with touch-sensitive display and method of facilitating input at the electronic device
US9383916B2 (en) 2009-09-30 2016-07-05 Microsoft Technology Licensing, Llc Dynamic image presentation
US9330069B2 (en) * 2009-10-14 2016-05-03 Chi Fai Ho Layout of E-book content in screens of varying sizes
SG171492A1 (en) 2009-12-01 2011-06-29 Creative Tech Ltd An electronic book reader
US8443280B2 (en) 2009-12-15 2013-05-14 Bluebeam Software, Inc. Method for sequenced document annotations
US20110145692A1 (en) 2009-12-16 2011-06-16 Peter Noyes Method for Tracking Annotations with Associated Actions
US8499236B1 (en) 2010-01-21 2013-07-30 Amazon Technologies, Inc. Systems and methods for presenting reflowable content on a display
KR20110089014A (ko) * 2010-01-29 2011-08-04 삼성전자주식회사 전자책 단말기 및 그의 독서 내역 정보 제공방법
US8799827B2 (en) 2010-02-19 2014-08-05 Microsoft Corporation Page manipulations using on and off-screen gestures
US8850360B2 (en) 2010-02-23 2014-09-30 Hewlett-Packard Development Company, L.P. Skipping through electronic content on an electronic device
US8751970B2 (en) * 2010-02-25 2014-06-10 Microsoft Corporation Multi-screen synchronous slide gesture
US20110227810A1 (en) 2010-03-19 2011-09-22 Mckinney Susan Portable communication device with secondary peripheral display
CN102822773A (zh) 2010-03-24 2012-12-12 惠普开发有限公司 用于显示设备的手势映射
US20110261030A1 (en) 2010-04-26 2011-10-27 Bullock Roddy Mckee Enhanced Ebook and Enhanced Ebook Reader
US20110295879A1 (en) 2010-05-27 2011-12-01 Neuone, Llc Systems and methods for document management
US20110291964A1 (en) 2010-06-01 2011-12-01 Kno, Inc. Apparatus and Method for Gesture Control of a Dual Panel Electronic Device
US8250071B1 (en) * 2010-06-30 2012-08-21 Amazon Technologies, Inc. Disambiguation of term meaning
US8990727B2 (en) 2010-07-21 2015-03-24 Sybase, Inc. Fisheye-based presentation of information for mobile devices
US20120084644A1 (en) 2010-09-30 2012-04-05 Julien Robert Content preview
US20120096344A1 (en) 2010-10-19 2012-04-19 Google Inc. Rendering or resizing of text and images for display on mobile / small screen devices
US20120096345A1 (en) 2010-10-19 2012-04-19 Google Inc. Resizing of gesture-created markings for different display sizes
US8861797B2 (en) 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
US10102354B2 (en) 2010-11-19 2018-10-16 Microsoft Technology Licensing, Llc Integrated application feature store
US20120159373A1 (en) 2010-12-15 2012-06-21 Verizon Patent And Licensing, Inc. System for and method of generating dog ear bookmarks on a touch screen device
US9363579B2 (en) 2010-12-22 2016-06-07 Google Inc. Video player with assisted seek
US9430128B2 (en) 2011-01-06 2016-08-30 Tivo, Inc. Method and apparatus for controls based on concurrent gestures
US9552015B2 (en) 2011-01-24 2017-01-24 Apple Inc. Device, method, and graphical user interface for navigating through an electronic document

Also Published As

Publication number Publication date
EP2668551B1 (en) 2018-08-15
KR101636561B1 (ko) 2016-07-06
KR101528993B1 (ko) 2015-06-16
JP2014510328A (ja) 2014-04-24
US20120192068A1 (en) 2012-07-26
AU2012209199B2 (en) 2016-02-11
CN103348301B (zh) 2017-03-22
WO2012103117A1 (en) 2012-08-02
KR101763550B1 (ko) 2017-07-31
KR20150001852A (ko) 2015-01-06
CN103348301A (zh) 2013-10-09
CN107122004A (zh) 2017-09-01
KR20150065920A (ko) 2015-06-15
AU2016202837B2 (en) 2017-05-04
JP2016194944A (ja) 2016-11-17
US9552015B2 (en) 2017-01-24
EP2668551A1 (en) 2013-12-04
KR20130129266A (ko) 2013-11-27
US20120192118A1 (en) 2012-07-26
US20120192057A1 (en) 2012-07-26
US20120192101A1 (en) 2012-07-26
AU2012209199A1 (en) 2013-08-01
US9442516B2 (en) 2016-09-13
JP5964861B2 (ja) 2016-08-03
KR101569644B1 (ko) 2015-11-16
US20120192102A1 (en) 2012-07-26
US9671825B2 (en) 2017-06-06
CN107122004B (zh) 2020-01-24
EP3410284A1 (en) 2018-12-05
US8782513B2 (en) 2014-07-15
KR20160083140A (ko) 2016-07-11
AU2016202837A1 (en) 2016-05-26

Similar Documents

Publication Publication Date Title
JP6216839B2 (ja) 電子文書をナビゲートするためのデバイス、方法、及びグラフィカルユーザインタフェース
US11256401B2 (en) Devices, methods, and graphical user interfaces for document manipulation
US20210049321A1 (en) Device, method, and graphical user interface for annotating text

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6216839

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250