JP2014507026A - 挿入点に基づくユーザーインターフェイス対話挙動 - Google Patents

挿入点に基づくユーザーインターフェイス対話挙動 Download PDF

Info

Publication number
JP2014507026A
JP2014507026A JP2013549438A JP2013549438A JP2014507026A JP 2014507026 A JP2014507026 A JP 2014507026A JP 2013549438 A JP2013549438 A JP 2013549438A JP 2013549438 A JP2013549438 A JP 2013549438A JP 2014507026 A JP2014507026 A JP 2014507026A
Authority
JP
Japan
Prior art keywords
user
insertion point
page
input
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013549438A
Other languages
English (en)
Other versions
JP2014507026A5 (ja
Inventor
リセ,ミッチェル
マシー−オーウェンズ,チェイン
チュウイ,シン・ワ
ホップウッド,タラ
ベスト,ジェシカ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2014507026A publication Critical patent/JP2014507026A/ja
Publication of JP2014507026A5 publication Critical patent/JP2014507026A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Abstract

挿入点に基づく文書ユーザーインターフェイス挙動の自動操作が提供される。表示された文書内に挿入点を配置するとすぐに、ユーザーの次の動作に基づいて、ユーザーインターフェイスの挙動が調整される。ユーザーが挿入点の付近でドラッグ動作を開始する場合、ユーザーが文書のコンテンツと対話する(例えば、テキストの一部または(1つもしくは複数の)オブジェクトを選択する)ことが可能にされる。他方で、ユーザーが挿入点から離れた位置でドラッグ動作を開始する場合、ユーザーがページと対話すること(例えば、パンすること)が可能にされる。これにより、ユーザーによる追加の動作またはユーザー動作の制限なしに、対話挙動は自動的に調整される。

Description

本発明は、挿入点に基づくユーザーインターフェイス対話挙動に関する。
[0001]テキストベースおよびオブジェクトベースの文書は、通常、カーソルといくつかの制御要素とを用いて、ユーザーインターフェイスを介して操作される。ユーザーは、カーソルの配置により、文書上に選択を示す前またはその後に、1つもしくは複数の制御要素をアクティブ化することによって、文書と対話することができる。例えば、テキストの一部またはオブジェクトが選択され、次いで、その選択の編集、複写などに関する制御要素がアクティブ化されることが可能である。次いで、ユーザーは、アクティブ化された制御要素に関連する動作を実行することが可能にされる。
[0002]ユーザーが文書と対話するのを可能にするユーザーインターフェイスの挙動(behavior)は、通常、ユーザー動作に基づいて制限される。例えば、ドラッグ動作は、それが横ドラッグ動作である場合、ユーザーがテキストの一部または1つもしくは複数のオブジェクトを選択するのを可能にすることができるのに対して、縦(または、その他の)方向の同じ動作は、ユーザーが現在のページにパンするのを可能にすることができる。他の例では、特定の制御要素をアクティブ化させて、テキスト選択モードとページパンモードとを切り替えなければならない場合がある。パンジェスチャーと選択ジェスチャーとの間の衝突により、従来のユーザーインターフェイスを備えたタッチデバイスを使用する、大量のテキスト編集タスクは特に困難な場合がある。
[0003]本概要は、発明を解決するための形態において下でさらに記述される概念の選択を簡素化された形で紹介するために提供される。本概要は、特許請求される主題の主な特徴または重要な特徴を排他的に識別することが意図されず、特許請求される主題の範囲を判断する際の支援としても意図されない。
[0004]実施形態は、挿入点に基づく文書ユーザーインターフェイス挙動の操作に関する。いくつかの実施形態によれば、表示された文書内に挿入点を配置するとすぐに、ユーザーの後続の動作に基づいて、ユーザーインターフェイスの挙動が調整されることが可能である。ユーザーが挿入点の付近でドラッグ動作を開始する場合、ユーザーが文書のコンテンツと対話すること(例えば、テキストの一部または(1つもしくは複数の)オブジェクトを選択すること)が可能にされ得る。ユーザーが挿入点から離れた位置でドラッグ動作を開始する場合、ユーザーがそのページと対話すること(例えば、パンすること)が可能にされ得る。これにより、ユーザーによる追加の動作またはユーザー動作の制限なしに、対話挙動は自動的に調整される。
[0005]これらの特徴および利点、ならびにその他の特徴および利点は、以下の詳細な説明を読み、関連する図面を審査することから明らかになろう。前述の概要および以下の詳細な説明は、両方とも、説明のためであり、特許請求される態様を限定しない点を理解されたい。
[0006]タッチベースのコンピューティングデバイス内の挿入点に基づくユーザーインターフェイス挙動操作の例を示す図である。 [0007]いくつかの実施形態による、挿入点に基づいてユーザーインターフェイス挙動が操作され得る、文書に関するある例示的なユーザーインターフェイスを示す図である。 [0008]他の実施形態による、挿入点に基づいてユーザーインターフェイス挙動が操作され得る、文書に関する別の例示的なユーザーインターフェイスを示す図である。 [0009]実施形態によるシステムが実施され得る、あるネットワーク接続された環境を示す図である。 [0010] 実施形態が実施され得る、ある例示的なコンピューティング動作環境のブロック図である。 [0011]実施形態による、挿入点に基づいてユーザーインターフェイス挙動を自動的に操作するプロセスに関する論理の流れ図である。
[0012]上で簡単に述べたように、挿入点に基づいて、文書ユーザーインターフェイス挙動が操作されて、挿入点に対するユーザーの動作の位置に応じて、ユーザーがページのコンテンツまたはページ自体と対話するのを可能にすることができる。これにより、ユーザーが、誤ってパンせずに、または、そうでない場合、ユーザーがそのページと対話することを望むとき、妨害もせずに、そのページと対話せずに、ページ上のテキストもしくはオブジェクトを選択することが可能にされ得る。
[0013]以下の詳細な説明では、詳細な説明の一部を形成し、例示として、特定の実施形態または例が示される添付の図面を参照する。本開示の趣旨または範囲から逸脱せずに、これらの態様は組み合わされてよく、その他の態様が利用されてよく、構造的な変更が行われてよい。以下の詳細な説明は、したがって、限定的な意味で理解されるべきではなく、本発明の範囲は添付の請求項およびその均等物によって定義される。
[0014]これらの実施形態は、コンピューティングデバイス上のオペレーティングシステム上で実行するアプリケーションプログラムと共に実行するプログラムモジュールの一般的な文脈で説明されるが、他のプログラムモジュールと組み合わせてこれらの態様を実施することも可能である点を当業者は理解されよう。
[0015]全体的に、プログラムモジュールは、特定のタスクを実行するか、または特定の抽象データタイプを実施するルーチン、プログラム、構成要素、データ構造、およびその他のタイプの構造を含む。さらに、実施形態は、ハンドヘルドデバイス、マルチプロセッサーシステム、マイクロプロセッサーベースの消費家電製品またはプログラマブル消費家電製品、ミニコンピューター、メインフレームコンピューター、および類似のコンピューティングデバイスを含めて、他のコンピューターシステム構成を用いて実施されることが可能である点を当業者は理解されよう。実施形態は、通信ネットワークを介して連結された遠隔処理デバイスによってタスクが実行される分散型コンピューティング環境で実施されることも可能である。分散型コンピューティング環境では、プログラムモジュールはローカルメモリー記憶デバイスおよび遠隔メモリー記憶デバイスの両方の中に配置されることが可能である。
[0016]実施形態は、コンピューターで実施されるプロセス(方法)、コンピューティングシステム、またはコンピュータープログラム製品もしくはコンピューター可読媒体などの製品として実施されることが可能である。コンピュータープログラム製品は、コンピューターシステムによって読み取り可能であり、コンピューターまたはコンピューティングシステムに(1つもしくは複数の)例示的なプロセスを実行させるための命令を備えたコンピュータープログラムを符号化するコンピューター記憶媒体であってよい。コンピューター可読記憶媒体は、例えば、揮発性コンピューターメモリー、不揮発性メモリー、ハードドライブ、フラッシュドライブ、フロッピーディスク、またはコンパクトディスク、および類似の媒体のうちの1つもしくは複数を介して実施されることが可能である。
[0017]本明細書を通して、「プラットフォーム」という用語は、表示された文書のコンテンツおよびページとのユーザー対話を可能にするためのソフトウェア構成要素ならびにハードウェア構成要素の組合せであってよい。プラットフォームの例は、複数のサーバを介して実行される、ホストされたサービス、単一のコンピューティングデバイス上で実行されるアプリケーション、および類似のシステムを含むが、これらに限定されない。「サーバ」という用語は、通常、ネットワーク接続された環境内で1つまたは複数のソフトウェアプログラムを実行するコンピューティングデバイスの全体を指す。しかし、サーバは、ネットワーク上でサーバと見なされる、1つまたは複数のコンピューティングデバイス上で実行される仮想サーバ(ソフトウェアプログラム)として実施されることも可能である。これらの技術および例示的動作に関するさらなる詳細が下で提供される。
[0018]図1を参照すると、タッチベースのコンピューティングデバイス内の挿入点に基づくユーザーインターフェイス挙動操作の例が示される。図1に示されるコンピューティングデバイスおよびユーザーインターフェイス環境は例示のためである。実施形態は、様々なコンピューティングデバイスおよびシステムを用いて、様々なローカルコンピューティング環境内、ネットワーク接続されたコンピューティング環境内、ならびに類似のコンピューティング環境内で実施されることが可能である。
[0019]従来のユーザーインターフェイスでは、文書とのユーザー対話は、通常、ページとの対話とページのコンテンツとの対話とを切り替えるための1つまたは複数の制御のアクティブ化など、複数のマニュアルステップに基づいて制限される。あるいは、ユーザー動作に制限が課される場合がある。例えば、横ドラッグ動作はユーザーがテキスト(または、オブジェクト)を選択するのを可能にすることができるのに対して、縦ドラッグ動作はユーザーがページにパンするのを可能にすることができる。後者は、特に、タッチベースのデバイス内で実施される。
[0020]実施形態によるシステムは、挿入点の位置と次のユーザー動作の位置とに基づいて、自動的なユーザーインターフェイス挙動操作を可能にする。そのようなシステムは、タッチベースのデバイス内、または、マウスもしくはキーボードなど、より従来型の入力機構を備えた、他のコンピューティングデバイス内で実施可能である。挿入点の位置と次のユーザー動作の位置とに基づいて、自動ユーザーインターフェイス挙動操作を実施するために、ジェスチャーベースの入力機構が使用されることも可能である。
[0021]ある例示的なタッチベースのコンピューティングデバイス上のユーザーインターフェイス100が例示される。ユーザーインターフェイス100は、制御要素102と、テキストコンテンツ104を備えた文書のページ110とを含む。ある例示的なシナリオによれば、ユーザー108は、挿入点106を配置させて、ページ110上のある地点に触れる。その後、ユーザー108は、挿入点106の周囲から開始して、ドラッグ動作112を実行することができる。
[0022]ユーザーインターフェイス114は、ドラッグ動作112の結果を例示する。ドラッグ動作はユーザーインターフェイス100において挿入点106の周囲から始まるため、テキストコンテンツ104の一部116はユーザー動作が終了する地点まで(選択を示して)強調表示される。これにより、ユーザーは、追加の制御要素をアクティブ化する必要がないか、または横方向だけのドラッグ動作などの制限を受ける。テキスト部分を選択するとすぐに、ドロップダウンメニュー、メニューの上のホバリングなど(図示せず)により、追加の動作がユーザーに提供され得る。
[0023]ユーザーインターフェイス118は、挿入点106の配置時の別の可能なユーザー動作を例示する。この例示的なシナリオによれば、ユーザーは、このときは挿入点106から離れた、ページ上の地点から開始して、別のドラッグ動作122を実行する。ドラッグ動作122の結果がユーザーインターフェイス124内に示され、この場合、ページ110は(ドラッグ動作の方向に)上向きにパンされる。これにより、ユーザーは、この場合も、追加の制御要素をアクティブ化せずに、または縦方向だけのドラッグ動作などの制限を受けずに、そのページと直接的に対話することが可能にされる。ドラッグ動作、および結果として生じるパンは、いずれの方向であってもよく、縦方向に制限されない。挿入点から離れたユーザー動作の結果として生じる、ページとの対話は、図に示されるようにページコンテンツを変更しない。
[0024]図1に示されるようなタッチベースのデバイスの場合、挿入点の配置およびドラッグ動作は、デバイスのスクリーン上での指(もしくは類似のオブジェクト)のタップまたはドラッグなど、タッチ動作による入力であってよい。いくつかの実施形態では、これらは、マウス/キーボード動作によって配置されてもよく、またはマウス/キーボード動作と組み合わされてもよい。例えば、マウスを含めて、タッチ対応コンピューティングデバイス上で、ユーザーは、マウスを用いてクリックして、挿入点を配置し、次いで、指でドラッグすることができる。
[0025]図2は、いくつかの実施形態による、挿入点に基づいてユーザーインターフェイス挙動が操作され得る、文書に関するある例示的なユーザーインターフェイスを示す。上で議論されたように、実施形態によるシステムは、タッチベースの入力機構およびその他の入力機構に関して実施されることが可能である。図2の例示的なユーザーインターフェイスは、従来のマウス/キーボード入力機構またはジェスチャーベースの入力機構を利用するコンピューティングデバイスに結合され得るディスプレイ200上に示される。後者の場合、入力のためのユーザージェスチャーを捕捉するために、カメラなどの光学捕捉デバイスが使用されてよい。
[0026]ディスプレイ200上のユーザーインターフェイスは、テキストコンテンツ232を備えた文書のページ230も提示する。例示的なシナリオでは、第1の動作として、ユーザーはページ230上に挿入点234を配置することができる。挿入点234は、図2で縦線として示されるが、その提示はこの例に限定されない。挿入点234を示すために、任意のグラフィカル表現が使用されてよい。挿入点234を自由に移動するカーソルと区別するために、点滅カレット(blinking caret)、明確な形状、ハンドル235、または類似の機構が用いられてよい。例えば、挿入点は、やはりテキスト上で縦線として表されることが可能であるが、点滅しない、自由に移動するマウスカーソルではなく、テキスト上の点滅カーソルであってよい。
[0027]ユーザーインターフェイス挙動の操作は、挿入点234の位置に比較した次のユーザー動作の位置に基づくことが可能である。ユーザーが文書のコンテンツと対話するのを可能にすることと、ユーザーがページと対話するのを可能にすることとの間の境界を判断するために、挿入点234の周囲に事前に定義された領域236が使用され得る。図2は、次のユーザー動作に関する3つの例示的なシナリオを示す。次のユーザー動作が事前に定義された領域236の外部の地点240または242から発生する場合、ユーザーがページと対話することが可能にされ得る。他方で、次のユーザー動作が事前に定義された領域236内の地点238から始まる場合、ユーザーがコンテンツと対話することが可能にされ得る。例えば、テキストの一部を選択する。入力方法に基づいて、事前に定義された領域236のサイズが選択され得る。例えば、マウス入力スタイルおよびタッチベースの入力スタイルは異なる精度を有するため、マウス入力の場合はより小さな領域が選択されてよく、タッチベースの入力の場合はより大きな領域が選択されてよい。
[0028]カーソルが移動するにつれて、ハンドル235は、接触形状(contact geometry)に基づく同じ相対的な配置を保持することができる。いくつかの実施形態によれば、ユーザーはハンドル235を調整して、テキストのカスタム範囲を生み出すことが可能にされ得る。その他の実施形態によれば、挿入点を配置するために拡大ツールが提供され得る。タッチベースのデバイス内で拡大ツールをトリガするために、ユーザーは、選択ハンドルを押下して、ハンドルをアクティブ化することができる。ユーザーが事前に定義された期間にわたって移動せずに同じ位置を押下する場合、拡大ツールを出現させることができる。押下の終了時に、動作は完了し、押下された位置内に選択ハンドルが配置され得る。
[0029]図3は、他の実施形態による、挿入点に基づいてユーザーインターフェイス挙動が操作され得る、文書に関する別の例示的なユーザーインターフェイスを示す。図3のユーザーインターフェイスは、ディスプレイ300上に提示されたページ330を含む。図2の例と異なり、ページ330は、テキストコンテンツ332とグラフィカルオブジェクト352とを含む。
[0030]挿入点334はグラフィカルオブジェクト352の隣に(または、その上に)配置される。これにより、次のユーザー動作が挿入点334の周囲の事前に定義された領域336内の地点356から開始する場合、ユーザーがコンテンツ(例えば、グラフィカルオブジェクト352)と対話することが可能にされ得る。他方で、次のユーザー動作がページの空白領域内の地点354またはテキストコンテンツ上の地点358から開始する場合、ユーザーが、コンテンツの代わりに、ページ自体と対話することが可能にされ得る。
[0031]いくつかの実施形態によれば、次の動作がその挿入点からのドラッグ動作を含む場合、コンテンツとの対話を示す左矢印および/または右矢印335を挿入点334のいずれかの側に出現させることができる。ユーザーが挿入点334からドラッグを開始すると、その移動方向の矢印をフィードバックとして示すことができる。ドラッグ動作が完了すると(例えば、タッチベースのデバイス上で指を持ち上げると)、選択ハンドルを用いてその選択の両縁を示すことができる。さらなる実施形態によれば、文書が編集可能なコンテンツを含まない(例えば、読取り専用電子メールである)場合、ユーザーインターフェイスは挿入点がページ上に配置されることを可能にしなくてよい。
[0032]図1から3の例示的なシステムは、特定のデバイス、アプリケーション、ユーザーインターフェイス要素、および対話を用いて記述されている。実施形態は、これらの例示的な構成によるシステムに限定されない。挿入点の位置に基づいてユーザーインターフェイス挙動を操作するためのシステムは、より少数の構成要素または追加の構成要素を用い、かつ他のタスクを実行する構成で実施されることが可能である。さらに、特定のプロトコルおよび/またはインターフェイスは、本明細書に記述された原理を使用して類似の形で実施されることが可能である。
[0033]図4は、実施形態が実施され得る、ある例示的なネットワーク接続された環境である。挿入点の位置に基づくユーザーインターフェイス挙動操作は、ホストされたサービスなど、1つまたは複数のサーバ414を介して実行されるソフトウェアを介して実施されることが可能である。プラットフォームは、(1つまたは複数の)ネットワーク410を通じて、ハンドヘルドコンピューティングデバイス411およびスマートフォン412(「クライアントデバイス」)など、個々のコンピューティングデバイス上のクライアントアプリケーションと通信することができる。
[0034]クライアントデバイス411〜412のうちのいずれかの上で実行されるクライアントアプリケーションは、サーバ414、または個々のサーバ416によって実行される(1つもしくは複数の)アプリケーションを介して通信を円滑にすることが可能である。サーバのうちの1つの上で実行されるアプリケーションは、テキスト、ならびに/または、グラフィカルオブジェクト、画像、ビデオオブジェクト、および類似物などのオブジェクトを含めて、文書と対話するためのユーザーインターフェイスを提供することが可能である。ユーザーによって配置されたページ上の挿入点の位置に対するユーザー動作の開始位置に基づいて、文書のページ上またはページ自体の上に示されるコンテンツとのユーザーの対話が自動的に可能にされ得る。ユーザーインターフェイスは、タッチベースの入力、(例えば、マウス、キーボードなど)デバイスベースの入力、ジェスチャーベースの入力、および類似の入力に対応することができる。アプリケーションは、(1つもしくは複数の)データストア419から直接的に、またはデータベースサーバ418を介して関連データを取り出して、クライアントデバイス411〜412を介して、要求されたサービス(例えば、文書編集)を(1人もしくは複数の)ユーザーに提供することができる。
[0035](1つまたは複数の)ネットワーク410は、サーバ、クライアント、インターネットサービスプロバイダ、および通信メディアの何らかのトポロジを含むことが可能である。実施形態によるシステムは、静的トポロジまたは動的トポロジを有することが可能である。(1つまたは複数の)ネットワーク410は、企業ネットワークなどのセキュアなネットワーク、ワイヤレスオープンネットワークなどのセキュアでないネットワーク、またはインターネットを含むことが可能である。(1つまたは複数の)ネットワーク410は、公衆電話交換網(PSTN)またはセルラネットワークなど、他のネットワークを介して通信を調整することも可能である。さらに、(1つまたは複数の)ネットワーク410は、Bluetoothまたは類似のネットワークなど、短距離無線ネットワークを含むことも可能である。(1つまたは複数の)ネットワーク410は、本明細書で記述されるノード間に通信を提供する。限定ではなく、例として、(1つまたは複数の)ネットワーク410は、音響媒体、RF媒体、赤外線媒体、およびその他の無線媒体など、無線媒体を含むことが可能である。
[0036]挿入点に基づいて、ユーザーインターフェイス挙動操作を提供するためのプラットフォームを実施するために、コンピューティングデバイス、アプリケーション、データソース、およびデータ配信システムの多くの他の構成が用いられてよい。さらに、図4で議論されたネットワーク接続された環境は、例示のためだけである。実施形態は、例示的なアプリケーション、モジュール、またはプロセスに限定されない。
[0037]図5および関連する議論は、実施形態が実施され得る、適切なコンピューティング環境の短い一般的な記述を提供するためである。図5を参照すると、コンピューティングデバイス500など、実施形態によるアプリケーションに関する、ある例示的なコンピューティング動作環境のブロック図が示される。基本構成では、コンピューティングデバイス500は、実施形態による文書編集ユーザーインターフェイスを備えたアプリケーションを実行する、いずれかのコンピューティングデバイスであってよく、少なくとも1つの処理ユニット502とシステムメモリー504とを含むことが可能である。コンピューティングデバイス500は、プログラムを実行する際に協働する複数の処理ユニットを含むことも可能である。コンピューティングデバイスの正確な構成およびタイプに応じて、システムメモリー504は、(RAMなど)揮発性であってよく、(ROM、フラッシュメモリーなど)不揮発性であってよく、またはこれら2つの何らかの組合せであってもよい。システムメモリー504は、通常、Redmond、WashingtonのMICROSOFT CORPORATIONからのWINDOWS(登録商標)オペレーティングシステムなど、プラットフォームの動作を制御するのに適したオペレーティングシステム505を含む。
[0038]システムメモリー504は、プログラムモジュール506、アプリケーション522、およびユーザーインターフェイス対話挙動制御モジュール524など、1つまたは複数のソフトウェアアプリケーションを含むことも可能である。アプリケーション522は、ワード処理アプリケーション、スプレッドシートアプリケーション、プレゼンテーションアプリケーション、スケジューリングアプリケーション、電子メールアプリケーション、カレンダーアプリケーション、ブラウザ、および類似のアプリケーションであってよい。
[0039]アプリケーション522は、テキストコンテンツおよびその他のコンテンツを含むことが可能な文書の編集、ならびに、そうでない場合、文書との対話のためのユーザーインターフェイスを提供することが可能である。ユーザーインターフェイス対話挙動制御モジュール524は、制御要素をアクティブ化せずに、または横ドラッグ動作もしくは縦ドラッグ動作など、動作の制限を受けずに、ユーザーがコンテンツまたはページと直接的に対話するのを自動的に可能にすることができる。ユーザーインターフェイス挙動の操作は、ユーザーによってまたは(例えば、文書が最初に開かれたとき)自動的にページ上に配置される挿入点と比較して、ユーザー動作(例えば、ドラッグ動作)が始まる相対的な位置に基づいてよい。対話は、タッチベースの対話、マウスクリックベースもしくはキーボード入力ベースの対話、音声ベースの対話、またはジェスチャーベースの対話を含むことが可能であるが、これらに限定されない。アプリケーション522および制御モジュール524は、別個のアプリケーションであってよく、またはホストされたサービスの統合されたモジュールであってもよい。この基本構成は、図5おいて、破線508内の構成要素によって例示されている。
[0040]コンピューティングデバイス500は、追加の特徴または機能性を有することが可能である。例えば、コンピューティングデバイス500は、例えば、磁気ディスク、光ディスク、またはテープなど、(取外し可能な、かつ/もしくは取外し不可能な)追加のデータ記憶デバイスを含むことも可能である。そのような追加の記憶装置は、図5において、取外し可能記憶装置509および取外し不可能記憶装置510によって例示されている。コンピューター可読記憶媒体は、コンピューター可読命令、データ構造、プログラムモジュール、もしくはその他のデータなど、情報を記憶するための任意の方法または技術で実施された揮発性媒体および不揮発性媒体、取外し可能媒体および取外し不可能媒体を含むことが可能である。システムメモリー504、取外し可能記憶装置509、および取外し不可能記憶装置510は、すべて、コンピューター可読記憶媒体の例である。コンピューター可読記憶媒体は、所望される情報を記憶するために使用されるこが可能であり、かつコンピューティングデバイス500によってアクセスされ得るRAM、ROM、EEPROM、フラッシュメモリーもしくはその他のメモリー技術、CD−ROM、デジタル多用途ディスク(DVD)もしくはその他の光記憶装置、磁気テープ、磁気ディスク記憶装置もしくはその他の磁気記憶デバイス、または任意のその他の媒体を含むが、これらに限定されない。任意のそのようなコンピューター可読記憶媒体は、コンピューティングデバイス500の一部であってよい。コンピューティングデバイス500は、キーボード、マウス、ペン、音声入力デバイス、タッチ入力デバイス、および類似の入力デバイスなど、(1つまたは複数の)入力デバイス512を有することも可能である。ディスプレイ、スピーカ、プリンタ、およびその他のタイプの出力デバイスなど、(1つまたは複数の)出力デバイス514が含まれてもよい。これらのデバイスは、当技術分野でよく知られており、ここで詳細に議論されなくてよい。
[0041]コンピューティングデバイス500は、デバイスが、分散型のコンピューティング環境内の有線ネットワークもしくは無線ネットワーク、衛星リンク、セルラリンク、短距離ネットワーク、および類似の機構を介してなど、その他のデバイス518と通信するのを可能にする通信接続516を含むことも可能である。その他のデバイス518は、通信アプリケーション、ウェブサーバ、および類似のデバイスを実行する(1つまたは複数の)コンピューターデバイスを含むことが可能である。(1つまたは複数の)通信接続516は、通信媒体の一例である。通信媒体は、コンピューター可読命令、データ構造、プログラムモジュール、またはその他のデータをその中に含めることが可能である。限定ではなく、例として、通信媒体は、有線ネットワークまたは直接配線接続などの有線媒体と、音響媒体、RF媒体、赤外線媒体、およびその他の無線媒体などの無線媒体とを含む。
[0042]例示的な実施形態は方法も含む。これらの方法は、本文書に記述された構造を含めて、任意の数の様式で実施され得る。1つのそのような様式は、本文書に記述されたタイプのデバイスの機械動作による。
[0043]もう1つのオプションの様式は、1人または複数の人間のオペレータが一部を実行すると共に、方法の個々の動作のうちの1つまたは複数が実行されることである。これらの人間のオペレータは、互いと同じ場所にいなくてよいが、それぞれ、そのプログラムの一部を実行する機械とだけ同じ場所にいることが必要とされる。
[0044]図6は、実施形態による、挿入点に基づいてユーザーインターフェイス挙動を自動的に操作するプロセス600の論理の流れ図を例示する。プロセス600は、プロセッサーを介して命令を実行することが可能なコンピューティングデバイス上または類似の電子デバイス上で実施されることが可能である。
[0045]プロセス600は、動作610で開始し、ここで、ユーザー動作に応答して、表示された文書上に挿入点が作成される。本明細書で使用される場合、文書は、長方形のユーザーインターフェイスを介したテキストデータおよびその他のデータの、一般に使用される表現を含むことが可能であるが、これらに限定されない。文書は、境界表面または非境界表面など、ディスプレイデバイス上のテキストデータおよびその他のデータの何らかの表現を含むことも可能である。文書のコンテンツタイプに応じて、挿入点は、テキストコンテンツ、または、グラフィカルオブジェクト、画像、ビデオオブジェクトなどのオブジェクトの隣にあってよい。決定動作620で、ユーザーによる次の動作が挿入点からのドラッグ動作であるか否かに関する判断が下され得る。いくつかの実施形態によれば、物理的表示サイズもしくは仮想表示サイズ、事前に定義された設定、および/またはタッチベースの対話に関して使用される指(もしくは、タッチオブジェクト)のサイズに基づいて動的に調整可能であり得る、挿入点からの事前に定義された距離に基づいて、次のユーザー動作の開始位置が挿入点の位置と比較されることが可能である。
[0046]次の動作が挿入点の付近で発生した場合、動作630で、コンテンツの一部を選択して、その後、利用可能な動作が提供されることなど、ユーザーが文書(テキストおよび/またはオブジェクト)のコンテンツと対話することが可能にされ得る。次の動作が挿入点の付近で発生しない場合、動作が、テキスト部分上の他の場所、またはページの空白領域内など、挿入点から離れて発生したかどうかに関して、決定動作640において、別の判断が下され得る。次の動作の開始点が挿入点から離れている場合、動作650で、ページにパンすること、ページを回転させることなど、ユーザーがページ全体と対話することが可能され得る。次の動作は、任意の方向のドラッグ動作、クリック、タップ、ピンチ(pinch)、または類似の動作であってよい。
[0047]プロセス600内に含まれる動作は例示のためである。挿入点の位置に基づくユーザーインターフェイス挙動操作は、より少数のステップもしくは追加のステップを含む類似のプロセスによって、ならびに本明細書に記述される原理を使用して異なる動作順序で実施されることが可能である。
[0048]上記の明細書、例、およびデータは、これらの実施形態の構造の製造および使用の完全な記述を提供する。主題は構造的な特徴および/または方法論的な動作に特定の言語で記述されているが、添付の請求項に定義される主題は上に記述された特定の特徴または動作に限定されるとは限らない点を理解されたい。むしろ、上で記述された特定の特徴および動作は請求項および実施形態を実施する例示的な形態として開示されている。

Claims (15)

  1. ユーザーインターフェイス挙動を操作するための方法であって、
    表示された文書ページ上に挿入点を作成するステップと、
    前記表示された文書ページ上のユーザー入力を検出するステップと、
    前記ユーザー入力が前記挿入点の周囲の事前に定義された領域内で発生する場合、前記ユーザーが前記ページのコンテンツと対話するのを可能にするステップと、
    前記ユーザー入力が前記挿入点の周囲の前記事前に定義された領域の外部で発生する場合、前記ユーザーが前記ページと対話するのを可能にするステップと
    を含む方法。
  2. 前記ユーザー入力が、任意の方向のドラッグ動作、クリック、タップ、およびピンチのうちの1つを含み、前記ページとの前記対話が、パンすること、ページサイズを変更すること、ページ特性を変更すること、およびページビューを変更することのセットからの少なくとも1つを含む、請求項1に記載の方法。
  3. 前記文書ページを表示するデバイスの物理的サイズ、前記文書ページを表示するユーザーインターフェイスのサイズ、事前に定義された設定、タッチベースの対話に関して使用されるタッチオブジェクトのサイズ、およびユーザー入力方法のタイプのうちの少なくとも1つに基づいて、前記挿入点の周囲の前記事前に定義された領域のサイズを動的に調整するステップ
    をさらに含む、請求項1に記載の方法。
  4. 前記ユーザー入力が前記事前に定義された領域内からのドラッグ動作を含む場合、コンテンツとの対話を示す、左矢印および右矢印のうちの少なくとも1つを前記挿入点の付近に提示するステップ
    をさらに含む、請求項1に記載の方法。
  5. 前記事前に定義された領域内からのドラッグ操作を検出するとすぐに、前記ドラッグ動作の方向の、前記矢印のうちの1つをフィードバックとして表示するステップ
    をさらに含む、請求項4に記載の方法。
  6. 前記ユーザー入力が、
    タッチベースの入力、マウス入力、キーボード入力、音声ベースの入力、およびジェスチャーベースの入力のうちの1つを介して受信される、請求項1に記載の方法。
  7. ユーザーインターフェイス挙動を操作することが可能なコンピューティングデバイスであって、
    文書ページを提示するユーザーインターフェイスを表示するように構成されたディスプレイと、
    タッチベースの入力、マウス入力、キーボード入力、音声ベースの入力、およびジェスチャーベースの入力
    のうちの1つを受信するように構成された入力構成要素と、
    命令を記憶するように構成されたメモリーと、
    前記記憶された命令を実行するために前記メモリーに結合されたプロセッサーとを備え、前記プロセッサーが、
    前記文書を開くこと、およびユーザー入力のうちの1つに応答して、前記表示された文書ページ上に挿入点を作成するステップと、
    前記表示された文書ページ上の後続のユーザー入力を検出するステップと、
    前記後続のユーザー入力が前記挿入点の周囲の事前に定義された領域内に発生する場合、前記ユーザーが前記ページのコンテンツと対話するのを可能にするステップであって、前記コンテンツが、
    テキスト、グラフィカルオブジェクト、画像、ビデオオブジェクト、表、およびテキストボックスのセットからの少なくとも1つを含む、ステップと、
    前記後続のユーザー入力が前記挿入点の周囲の前記事前に定義された領域の外部で発生する場合、前記ユーザーが前記ページと対話するのを可能にするステップと
    を実行するように構成されるコンピューティングデバイス。
  8. 前記コンテンツとの前記対話が、テキストおよびオブジェクトの組合せの選択を含む、請求項7に記載のコンピューティングデバイス。
  9. 前記後続のユーザー入力が任意の方向のドラッグ動作である、請求項7に記載のコンピューティングデバイス。
  10. 前記プロセッサーが、前記文書の一部の場合、前記挿入点を配置することを不可能にするステップであって、配置されることが試みられている前記挿入点には編集可能なコンテキストがない、ステップを行うようにさらに構成される、請求項7に記載のコンピューティングデバイス。
  11. 前記挿入点の周囲の前記事前に定義された領域が、前記ディスプレイの物理的サイズおよび前記ユーザーインターフェイスの仮想サイズのうちの1つに基づいて、固定サイズおよび動的に調整可能なサイズのうちの1つを有する、請求項7に記載のコンピューティングデバイス。
  12. ユーザーインターフェイス挙動を操作するための命令を記憶したコンピューター可読記憶媒体であって、前記命令が、
    タッチベースの動作に応答して、表示された文書ページ上に挿入点を作成するステップと、
    前記表示された文書ページ上の後続のユーザー動作を検出するステップと、
    前記後続のユーザー動作が前記挿入点の周囲の事前に定義された領域内で発生する場合、前記ユーザーが前記ページのコンテンツの少なくとも一部と対話するのを可能にするステップと、
    前記後続のユーザー動作が前記挿入点の周囲の前記事前に定義された領域の外部で発生する場合、前記ユーザーが、前記ページにパンすること、前記ページにズームすること、前記ページを回転させること、およびメニューをアクティブ化させることのセットから少なくとも1つを実行して、前記ページと対話するのを可能にするステップと
    を含む、コンピューター可読記憶媒体。
  13. 前記命令が、前記後続のユーザー動作に関して使用される入力のタイプに基づいて、前記事前に定義された領域のサイズを調整するステップをさらに含む、請求項12に記載のコンピューター可読記憶媒体。
  14. 前記ユーザーが前記コンテンツの一部と対話するのを可能にするステップが、前記ユーザーが前記コンテンツの前記一部を選択するのを可能にするステップを含む、請求項13に記載のコンピューター可読記憶媒体。
  15. 前記命令が、
    前記挿入点の配置に続いて、前記後続のユーザー動作が前記事前に定義された領域内からのドラッグ動作を含む場合、コンテンツとの対話を示す少なくとも1つの矢印を前記挿入点の付近に提示するステップと、
    前記事前に定義された領域内からの前記ドラッグ動作を検出するとすぐに、前記ドラッグ動作の方向の、前記矢印のうちの1つを表示するステップと
    をさらに含む、請求項13に記載のコンピューター可読記憶媒体。
JP2013549438A 2011-01-13 2012-01-04 挿入点に基づくユーザーインターフェイス対話挙動 Pending JP2014507026A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/005,809 US20120185787A1 (en) 2011-01-13 2011-01-13 User interface interaction behavior based on insertion point
US13/005,809 2011-01-13
PCT/US2012/020146 WO2012096804A2 (en) 2011-01-13 2012-01-04 User interface interaction behavior based on insertion point

Publications (2)

Publication Number Publication Date
JP2014507026A true JP2014507026A (ja) 2014-03-20
JP2014507026A5 JP2014507026A5 (ja) 2015-01-22

Family

ID=46491699

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013549438A Pending JP2014507026A (ja) 2011-01-13 2012-01-04 挿入点に基づくユーザーインターフェイス対話挙動

Country Status (16)

Country Link
US (1) US20120185787A1 (ja)
EP (1) EP2663913A4 (ja)
JP (1) JP2014507026A (ja)
KR (1) KR20140045301A (ja)
CN (1) CN102609188B (ja)
AU (1) AU2012205811A1 (ja)
BR (1) BR112013017559A2 (ja)
CA (1) CA2824055A1 (ja)
CL (1) CL2013002004A1 (ja)
CO (1) CO6731116A2 (ja)
HK (1) HK1173814A1 (ja)
MX (1) MX2013008186A (ja)
RU (1) RU2013132564A (ja)
SG (2) SG10201510763RA (ja)
WO (1) WO2012096804A2 (ja)
ZA (1) ZA201304472B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505978A (ja) * 2012-12-29 2016-02-25 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2019124996A (ja) * 2018-01-12 2019-07-25 株式会社ミツトヨ 画像測定機、画像測定方法、及び画像測定用プログラム
US11314374B2 (en) 2018-01-12 2022-04-26 Mitutoyo Corporation Position specifying method and program

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8656315B2 (en) 2011-05-27 2014-02-18 Google Inc. Moving a graphical selector
US8826190B2 (en) 2011-05-27 2014-09-02 Google Inc. Moving a graphical selector
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
EP2584443A1 (en) * 2011-10-17 2013-04-24 Research In Motion Limited User Interface for electronic device
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
CN104487929B (zh) 2012-05-09 2018-08-17 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
DE112013002381T5 (de) 2012-05-09 2015-02-26 Apple Inc. Vorrichtung, Verfahren und grafische Benutzeroberfläche für die Bewegung und Ablegen eines Benutzerschnittstellenobjekts
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
KR101670570B1 (ko) 2012-05-09 2016-10-28 애플 인크. 사용자 인터페이스 객체를 선택하는 디바이스, 방법, 및 그래픽 사용자 인터페이스
KR101823288B1 (ko) 2012-05-09 2018-01-29 애플 인크. 제스처에 응답하여 디스플레이 상태들 사이를 전이하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
EP2847662B1 (en) 2012-05-09 2020-02-19 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
CN108241465B (zh) 2012-05-09 2021-03-09 苹果公司 用于针对在用户界面中执行的操作提供触觉反馈的方法和装置
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US8656296B1 (en) * 2012-09-27 2014-02-18 Google Inc. Selection of characters in a string of characters
US9804777B1 (en) 2012-10-23 2017-10-31 Google Inc. Gesture-based text selection
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN105264479B (zh) 2012-12-29 2018-12-25 苹果公司 用于对用户界面分级结构进行导航的设备、方法和图形用户界面
EP2912542B1 (en) 2012-12-29 2022-07-13 Apple Inc. Device and method for forgoing generation of tactile output for a multi-contact gesture
AU2013368443B2 (en) 2012-12-29 2016-03-24 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
EP2939095B1 (en) 2012-12-29 2018-10-03 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US20140306897A1 (en) * 2013-04-10 2014-10-16 Barnesandnoble.Com Llc Virtual keyboard swipe gestures for cursor movement
US20140380380A1 (en) * 2013-06-24 2014-12-25 Cinematique, L.L.C. System and method for encoding media with motion touch objects and display thereof
US10956433B2 (en) 2013-07-15 2021-03-23 Microsoft Technology Licensing, Llc Performing an operation relative to tabular data based upon voice input
US9383910B2 (en) * 2013-10-04 2016-07-05 Microsoft Technology Licensing, Llc Autoscroll regions
US9407596B2 (en) * 2013-11-20 2016-08-02 International Business Machines Corporation Interactive splitting of entries in social collaboration environments
WO2015141093A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
US9639263B2 (en) 2014-08-05 2017-05-02 Weebly, Inc. Native overlay for rapid editing of web content
US10139998B2 (en) 2014-10-08 2018-11-27 Weebly, Inc. User interface for editing web content
US20160117080A1 (en) * 2014-10-22 2016-04-28 Microsoft Corporation Hit-test to determine enablement of direct manipulations in response to user actions
US10028116B2 (en) 2015-02-10 2018-07-17 Microsoft Technology Licensing, Llc De-siloing applications for personalization and task completion services
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
CN105468234A (zh) * 2015-11-18 2016-04-06 中科创达软件股份有限公司 一种信息处理方法及移动终端
US10402470B2 (en) 2016-02-12 2019-09-03 Microsoft Technology Licensing, Llc Effecting multi-step operations in an application in response to direct manipulation of a selected object
CN105843511A (zh) * 2016-04-06 2016-08-10 上海斐讯数据通信技术有限公司 一种触摸屏幕显示内容的选择方法和系统
CN106126052A (zh) * 2016-06-23 2016-11-16 北京小米移动软件有限公司 文本选择方法及装置
US10459612B2 (en) * 2016-10-05 2019-10-29 Microsoft Technology Licensing, Llc Select and move hint
CN109597981B (zh) * 2017-09-30 2022-05-17 腾讯科技(深圳)有限公司 一种文本互动信息的展示方法、装置及存储介质
CN108681531B (zh) * 2018-05-09 2020-11-13 天津字节跳动科技有限公司 文档输入的控制方法及装置
US20200183553A1 (en) 2018-12-10 2020-06-11 Square, Inc. Customized Web Page Development based on Point-of-Sale Information
US11379113B2 (en) * 2019-06-01 2022-07-05 Apple Inc. Techniques for selecting text
CN111338540B (zh) * 2020-02-11 2022-02-18 Oppo广东移动通信有限公司 图片文本处理方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020059350A1 (en) * 2000-11-10 2002-05-16 Marieke Iwema Insertion point bungee space tool
US20060132460A1 (en) * 2004-12-22 2006-06-22 Microsoft Corporation Touch screen accuracy
US20100037183A1 (en) * 2008-08-11 2010-02-11 Ken Miyashita Display Apparatus, Display Method, and Program
US20100235726A1 (en) * 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880733A (en) * 1996-04-30 1999-03-09 Microsoft Corporation Display system and method for displaying windows of an operating system to provide a three-dimensional workspace for a computer system
US8996682B2 (en) * 2007-10-12 2015-03-31 Microsoft Technology Licensing, Llc Automatically instrumenting a set of web documents
EP2060970A1 (en) * 2007-11-12 2009-05-20 Research In Motion Limited User interface for touchscreen device
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
CN101676844A (zh) * 2008-09-18 2010-03-24 联想(北京)有限公司 触摸屏输入信息的处理方法及装置
US20100153168A1 (en) * 2008-12-15 2010-06-17 Jeffrey York System and method for carrying out an inspection or maintenance operation with compliance tracking using a handheld device
US8451236B2 (en) * 2008-12-22 2013-05-28 Hewlett-Packard Development Company L.P. Touch-sensitive display screen with absolute and relative input modes
KR20100130671A (ko) * 2009-06-04 2010-12-14 삼성전자주식회사 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법
JP2011014044A (ja) * 2009-07-03 2011-01-20 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US20120072867A1 (en) * 2010-09-17 2012-03-22 Apple Inc. Presenting pop-up controls in a user interface

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020059350A1 (en) * 2000-11-10 2002-05-16 Marieke Iwema Insertion point bungee space tool
US20060132460A1 (en) * 2004-12-22 2006-06-22 Microsoft Corporation Touch screen accuracy
JP2006179006A (ja) * 2004-12-22 2006-07-06 Microsoft Corp カーソルを用いて入力を制御する入力制御方法
US20100037183A1 (en) * 2008-08-11 2010-02-11 Ken Miyashita Display Apparatus, Display Method, and Program
JP2010044533A (ja) * 2008-08-11 2010-02-25 Sony Corp 表示装置、表示方法及びプログラム
US20100235726A1 (en) * 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
JP2012521048A (ja) * 2009-03-16 2012-09-10 アップル インコーポレイテッド タッチスクリーンディスプレイを有する多機能デバイスでの編集の方法およびグラフィカルユーザインターフェース

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505978A (ja) * 2012-12-29 2016-02-25 アップル インコーポレイテッド コンテンツをスクロールするか選択するかを判定するためのデバイス、方法、及びグラフィカルユーザインタフェース
JP2019124996A (ja) * 2018-01-12 2019-07-25 株式会社ミツトヨ 画像測定機、画像測定方法、及び画像測定用プログラム
US11314374B2 (en) 2018-01-12 2022-04-26 Mitutoyo Corporation Position specifying method and program
US11656733B2 (en) 2018-01-12 2023-05-23 Mitutoyo Corporation Position specifying method and program

Also Published As

Publication number Publication date
US20120185787A1 (en) 2012-07-19
AU2012205811A1 (en) 2013-08-01
NZ613149A (en) 2014-11-28
CL2013002004A1 (es) 2013-12-13
ZA201304472B (en) 2014-08-27
WO2012096804A3 (en) 2012-11-08
BR112013017559A2 (pt) 2016-10-11
MX2013008186A (es) 2013-08-21
EP2663913A4 (en) 2016-10-19
KR20140045301A (ko) 2014-04-16
HK1173814A1 (en) 2013-05-24
RU2013132564A (ru) 2015-01-20
WO2012096804A2 (en) 2012-07-19
CN102609188A (zh) 2012-07-25
SG10201510763RA (en) 2016-01-28
EP2663913A2 (en) 2013-11-20
CA2824055A1 (en) 2012-07-19
SG191849A1 (en) 2013-08-30
CN102609188B (zh) 2015-07-08
CO6731116A2 (es) 2013-08-15

Similar Documents

Publication Publication Date Title
JP2014507026A (ja) 挿入点に基づくユーザーインターフェイス対話挙動
JP5977334B2 (ja) タッチ対応のコマンド実行のためのコンパクトなコントロールメニュー
JP6133411B2 (ja) ジェスチャまたはタッチを介してユーザインターフェースを制御するための最適化スキーム
JP2022172079A (ja) タッチ感知式セカンダリディスプレイにおいてユーザインタフェースコントロールを動的に提供するシステム、デバイス、及び方法
US20140325418A1 (en) Automatically manipulating visualized data based on interactivity
JP2014521171A (ja) コンテキストベースメニュー用ランチャ
JP6093432B2 (ja) ウェブ・ページ・アプリケーション制御
JP2014523050A (ja) コンテキストベースメニューシステムのためのサブメニュー
EP3008620B1 (en) Tethered selection handle
US20160239186A1 (en) Systems and methods for automated generation of graphical user interfaces
JP6425778B2 (ja) 情報処理装置、情報処理方法及びそのプログラム
JP6945270B2 (ja) スクリーン上の少なくとも1つのポインティング要素でツールを設定するためのコンピュータ実行方法
CN106126107B (zh) 电子设备和控制方法
NZ613149B2 (en) User interface interaction behavior based on insertion point

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141126

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160725