JP6056715B2 - コンテンツの部分の境界を再配置するシステム、プログラム及び計算処理装置 - Google Patents

コンテンツの部分の境界を再配置するシステム、プログラム及び計算処理装置 Download PDF

Info

Publication number
JP6056715B2
JP6056715B2 JP2013183411A JP2013183411A JP6056715B2 JP 6056715 B2 JP6056715 B2 JP 6056715B2 JP 2013183411 A JP2013183411 A JP 2013183411A JP 2013183411 A JP2013183411 A JP 2013183411A JP 6056715 B2 JP6056715 B2 JP 6056715B2
Authority
JP
Japan
Prior art keywords
content
gesture
selection range
boundary
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013183411A
Other languages
English (en)
Other versions
JP2014182786A (ja
Inventor
ローラン ドゥヌ
ドゥヌ ローラン
カーター スコット
カーター スコット
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2014182786A publication Critical patent/JP2014182786A/ja
Application granted granted Critical
Publication of JP6056715B2 publication Critical patent/JP6056715B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、計算処理装置のユーザ・インターフェイスに関し、詳細には、表示装置上の情報を選択するための方法、プログラム及びシステムに関する。
例えば、タッチスクリーンなどの表示装置上でテキストを選択すること、特に、携帯電話のような携帯用計算処理装置の小さいスクリーン上でテキストを選択することはユーザにとって困難である。図1及び図2は、今日の市場における多くの携帯用装置に実装されている従来のタップ・アンド・ホールド・テキスト選択技術100を例示している。この技術によれば、携帯用装置101のユーザは、対象ワードをタップすることにより、携帯用装置101の画面に表示されているテキスト102の中のワード105のような所望の対象ワードを、まず選択する。対象ワード選択が行われた後、ユーザは、テキスト選択境界を指定している2つのニードル103及び104を移動することにより選択範囲を調整する。選択境界は、ユーザの指によってニードル103及び104のいずれかをタッチし、携帯用装置101の画面を横切るように指をドラッグすることによって、調整される(再配置される)。上記従来の技術はいくつかの理由で不便であり、かつ、時間がかかる。第1に、ユーザはまず対象ワード105を識別し、その後、選択の最初と最後を示すマークであるニードル103及び104を用いてテキスト選択を注意深く拡張しなければならいため、選択に時間がかかる。第2に、テキスト102から対象ワードを適切に選択するために、ユーザはズームインする必要がある。その後、ユーザは、テキスト102の他の部分を選択するために、(テキスト102の全てを見ることができないので、)図2に示されるように、ズーム・アウトする必要がある。第3に、ユーザの指がテキスト102を隠し、現在のテキスト選択105の上に表示される小さい拡大鏡106は、多くの場合、十分なコンテキスト(文脈)を提供しない。最後に、ユーザは、一般に、装置101を一方の手で保持し、他方の手の人差し指で選択の端点(ニードル)103及び104を注意深く調整しなければならない。これは不便である。
米国特許出願公開第2011/0043455号明細書 米国特許出願公開第2011/0043453号明細書
アドコック(Adcock)ら、「トークマイナー:レクチャー・ウェブキャスト・サーチ・エンジン(TalkMiner: A lecture webcast search engine)」、ACM MM、2010年、頁241〜250
例えば、上記従来のテキスト選択技術などの従来の技術は機能するし、頻繁ではないテキスト選択(例えば、ワードのコピー)には適している。しかし、ユーザが記事を読み、当該記事の重要な部分にハイライトを付与する必要がある場合などにはより頻繁なテキスト選択が必要とされ、上記技術はユーザに苛立たしさを感じさせるほど時間がかかることは当業者には明らかである。それゆえ、従来のコンテンツ選択方法は問題を含み、新規かつ改良された技術が必要とされている。
本発明の第1の態様は、コンテンツの一部をユーザのジェスチャーによって選択させるためのシステムであって、表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析モジュールと、前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整モジュールとを備える。
本発明の第2の態様は、第1の態様のシステムであって、前記選択調整モジュールは、前記コンテンツの先頭側に向かうジェスチャーが検出された場合には、前記選択範囲の境界を前記コンテンツの先頭側に移動し、前記コンテンツの末尾側に向かうジェスチャーが検出された場合には、前記選択範囲の境界を前記コンテンツの末尾側に移動する。
本発明の第3の態様は、第1の態様のシステムであって、前記選択調整モジュールは、検出されたユーザのジェスチャーが大きいほど前記選択範囲の境界を大きく移動する。
本発明の第4の態様は、第1の態様のシステムであって、コンテンツはセグメントに分けられており、前記選択調整モジュールは、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更する。
本発明の第5の態様は、第1の態様のシステムであって、前記選択調整モジュールは、前記選択範囲の境界を移動しているあいだに当該境界が前記コンテンツのセグメントの境界の1つに達した場合には、前記選択範囲の境界を移動する速度を下げる。
本発明の第6の態様は、第1の態様のシステムであって、前記コンテンツはテキストであり、前記コンテンツは、単語の境界、節の境界、文の境界、空白、句点、読点、カンマ、及び、ピリオドの少なくとも1つに基づいてセグメントに分けられている。
本発明の第7の態様は、第1の態様のシステムであって、前記コンテンツはビデオであり、前記コンテンツは、空間的な近さ、時間的な近さ、及び、内容の近さのうちの少なくとも1つに基づいてセグメントに分けられている。
本発明の第8の態様は、第1の態様のシステムであって、タッチパネル方式のディスプレイデバイスに前記コンテンツを表示するユーザ・インターフェイス生成モジュールと、ユーザによる前記ディスプレイデバイスに対するタップのジェスチャーを検出した場合に、前記コンテンツのうちタップされた部分を前記選択範囲として設定する選択モジュールとを更に備え前記ジェスチャー分析モジュールは、ユーザによる前記ディスプレイデバイスに対するスワイプのジェスチャーを、前記選択範囲の外側であって前記選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、前記選択調整モジュールは、前記スワイプのジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を前記スワイプの方向に移動し、前記スワイプのジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を前記スワイプの方向に移動する。
本発明の第9の態様は、コンテンツの一部をユーザのジェスチャーによって選択させるための方法であって、表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかをコンピュータによって判断し、前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置をコンピュータによって再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置をコンピュータによって再配置する。
本発明の第10の態様は、コンピュータによって、コンテンツの一部をユーザのジェスチャーによって選択させるためのプログラムであって、前記コンピュータに、表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置をコンピュータによって再配置することを実行させる。
本発明の第11の態様の方法では、プロセッサを含む計算処理システムが、a.表示装置上にセグメント化されたコンテンツを表示し、b.前記表示装置上に表示されている前記セグメント化されたコンテンツの部分のユーザによる初期選択を検出し、表示されている前記セグメント化されたコンテンツの選択された前記部分の境界にマークを付し、c.表示されている前記セグメント化されたコンテンツの選択された前記部分の前記マークを付された境界の外側のユーザによるジェスチャーを検出し、d.前記ジェスチャーの検出に応じて、少なくとも一つの前記ジェスチャーの特性及び前記セグメント化されたコンテンツに基づいて、表示されている前記セグメント化されたコンテンツの選択された前記部分の前記境界の少なくとも部分を再配置し、e.前記表示装置上の前記セグメント化されたコンテンツの選択された前記部分の再配置された前記境界にマークを付す。
本発明の第12の態様は、第11の態様の方法であって、前記計算処理システムは、少なくとも1つの前記ユーザのジェスチャーが追加された場合、c〜eを繰り返す。
本発明の第13の態様は、第11または第12の態様の方法であって、前記セグメント化されたコンテンツは、ワードの境界、語句の境界、センテンスの境界、もしくは句読点の少なくとも1つに基づいてセグメント化されたテキスト・コンテンツを含む。
本発明の第14の態様は、第11〜第13のいずれかの態様の方法であって、前記セグメント化されたコンテンツは、空間的近似度、時間的近似度、もしくはコンテキストの近似度に基づいて、複数のセグメントにクラスタリングされた複数のグラフィック要素を含むグラフィック・コンテンツを含む。
本発明の第15の態様は、第11〜第14のいずれかの態様の方法であって、前記コンテンツ内に配置されている複数のコンテンツ・セグメンテーションの境界を用いて、前記コンテンツがセグメント化されている。
本発明の第16の態様は、第15の態様の方法であって、表示されている前記コンテンツの選択された前記部分の前記境界の部分が、前記複数のコンテンツ・セグメンテーションの境界の1つの位置に再配置される。
本発明の第17の態様は、第15または第16の態様の方法であって、前記複数のコンテンツ・セグメンテーションの境界は少なくともワード境界及びセンテンス境界を含む。
本発明の第18の態様は、第15〜第17のいずれかの態様の方法であって、前記複数のコンテンツ・セグメンテーションの境界は少なくともホワイト・スペース及び句読点によって定義される。
本発明の第19の態様は、第15〜第18のいずれかの態様の方法であって、前記境界の再配置される部分が前記複数のコンテンツ・セグメンテーションの境界に近付くと、表示されている前記コンテンツの選択された前記部分の境界の少なくとも部分の再配置の速度が低減される。
本発明の第20の態様は、第11〜第19のいずれかの態様の方法であって、前記ジェスチャーが表示されている前記セグメント化されたコンテンツの選択された前記部分の上流で検出された場合、表示されている前記コンテンツの選択された前記部分の前記境界の開始位置が再配置される。
本発明の第21の態様は、第11〜第20のいずれかの態様の方法であって、前記ジェスチャーが表示されている前記セグメント化されたコンテンツの選択された前記部分の下流で検出された場合、表示されている前記コンテンツの選択された前記部分の前記境界の終了位置が再配置される。
本発明の第22の態様は、第11〜第21のいずれかの態様の方法であって、表示されている前記コンテンツの選択された前記部分の前記境界の前記部分が、前記ジェスチャーの方向と同一の方向に再配置される。
本発明の第23の態様は、第11〜第22のいずれかの態様の方法であって、前記計算処理システムはキーボードを備え、前記ジェスチャーは前記キーボードに依存せず検出される。
本発明の第24の態様は、第11〜第23のいずれかの態様の方法であって、表示されている前記コンテンツの選択された前記部分の前記境界の少なくとも部分の再配置の程度は、少なくとも前記ジェスチャーの大きさに基づく。
本発明の第25の態様は、第24の態様の方法であって、前記コンテンツは、前記コンテンツ内に配置されている複数のコンテンツ・セグメンテーションの境界を用いてセグメント化され、表示されている前記コンテンツの選択された前記部分の前記境界の少なくとも部分の再配置の程度は、前記コンテンツ・セグメンテーションの境界にさらに基づく。
本発明の第26の態様は、第11〜第25のいずれかの態様の方法であって、表示されている前記コンテンツの選択された前記部分の境界の部分を再配置する程度は、前記ジェスチャーのタイプに少なくとも基づく。
本発明の第27の態様は、第11〜第26のいずれかの態様の方法であって、前記ユーザのジェスチャーの少なくとも部分は、表示されている前記セグメント化されたコンテンツの選択された前記部分のマークを付された前記境界内で検出される。
本発明の第28の態様はプログラムであって、コンピュータに、a.表示装置上にセグメント化されたコンテンツを表示し、b.前記表示装置上に表示されている前記セグメント化されたコンテンツの部分のユーザによる初期選択を検出し、表示されている前記セグメント化されたコンテンツの選択された前記部分の境界にマークを付し、c.表示されている前記セグメント化されたコンテンツの選択された前記部分の前記マークを付された境界の外側のユーザによるジェスチャーを検出し、d.前記ジェスチャーの検出に応じて、少なくとも一つの前記ジェスチャーの特性及び前記セグメント化されたコンテンツに基づいて、表示されている前記セグメント化されたコンテンツの選択された前記部分の前記境界の少なくとも部分を再配置し、e.前記表示装置上の前記セグメント化されたコンテンツの選択された前記部分の再配置された前記境界にマークを付す、ことを実行させる。
本発明の第29の態様は計算処理システムであって、a.表示装置にセグメント化されたコンテンツを表示させるユーザ・インターフェイス生成モジュールと、b.表示されている前記セグメント化されたコンテンツの部分のユーザによる初期選択を検出し、前記表示装置上に表示されている前記セグメント化されたコンテンツの選択された前記部分の境界にマークを付させる初期選択モジュールと、c.表示されている前記セグメント化されたコンテンツの選択された前記部分のマークを付された前記境界の外側で前記ユーザのジェスチャーを検出するジェスチャー分析モジュールと、d.前記ジェスチャーの検出に応じて、前記ジェスチャーの少なくとも1つの特性及び前記コンテンツのセグメンテーションに基づいて表示されている前記セグメント化されたコンテンツの選択された前記部分の前記境界の少なくとも部分を再配置し、前記表示装置上の前記セグメント化されたコンテンツの選択された前記部分の再配置された前記境界にマークを付させる選択調整モジュールと、を備える。
本発明の第30の態様の方法では、計算処理システムが、a.表示装置上にコンテンツを表示し、b.前記表示装置上に表示されている前記コンテンツの部分のユーザによる初期選択を検出し、表示されている前記コンテンツの選択された前記部分の境界にマークを付し、c.表示されている前記コンテンツの選択された前記部分の前記マークを付された境界の外側の前記ユーザによるジェスチャーを検出し、d.前記ジェスチャーの検出に応じて、少なくとも一つの前記ジェスチャーの特性に基づいて、表示されている前記コンテンツの選択された前記部分の前記境界の少なくとも部分を再配置し、e.前記表示装置上の前記コンテンツの選択された前記部分の再配置された前記境界にマークを付し、f.前記ジェスチャーが表示されている前記コンテンツの選択された前記部分の上流で検出された場合、表示されている前記コンテンツの選択された前記部分の前記境界の開始部分を再配置し、g.前記ジェスチャーが表示されている前記コンテンツの選択された前記部分の下流で検出された場合、表示されている前記コンテンツの選択された前記部分の前記境界の終了部分を再配置する。
本発明の構成を備えない場合よりも、表示装置上のテキスト選択を容易にする。
携帯型装置のタッチスクリーンを用いたテキスト選択の従来技術の操作を例示する。 携帯型装置のタッチスクリーンを用いたテキスト選択の従来技術の操作を例示する。 電子表示装置上に表示されるコンテンツの部分をユーザに選択させる本発明の携帯用計算処理システムを例示する。 電子表示装置上に表示されるコンテンツの部分をユーザに選択させる本発明の計算処理デスクトップ・システムを例示する。 電子表示装置上に表示されるコンテンツの部分をユーザに選択させる方法の操作シーケンスを例示する。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示されるテキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示される非テキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示される非テキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示される非テキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示される非テキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。 タッチ感知電子表示装置上に表示される非テキスト・コンテンツの部分をユーザに選択させる本発明の操作の実施形態の一例である。
以下の詳細な記述において、添付の図面を参照する。図面において、同様の機能を有する要素は同様の参照符号で示されている。上記添付の図面は例示のためのものであり、限定のためのものではない。特定の実施例及び実装は本発明の原理と矛盾しない。これらの実装は当業者が発明を実施することができる程度に十分記載されている。他の実装が利用されてもよく、本発明の範囲及び思想から乖離することなく、様々な要素の構成の変更及び/または置き換えを行うことが可能である。したがって、以下の詳細な記述は、限定的に解釈されるべきではない。さらに、記述される発明の様々な実施例は、汎用目的計算処理装置上で稼働するソフトウェアの形態で実装されてもよいし、特定用途ハードウェアの形態で実装されてもよいし、ソフトウェアとハードウェアとの組み合わせによって実装されてもよい。
ここで、記載される技術の一態様によれば、電子表示装置上に表示される分割されたコンテンツの部分を選択するためのシンプルなジェスチャーをユーザが使用することができるようにする計算処理システム、関連する計算処理装置に実装される方法及び計算処理装置によって実行される命令を記憶している、計算処理装置によって可読な媒体が提供される。実施例の1つによれば、本発明のコンテンツ選択システムは、テキスト・コンテンツを選択するために適用される。代替的な実施例において、本発明のコンテンツ選択システムは、非テキスト・コンテンツを選択するために適用される。1つもしくは複数の実施例において、コンテンツを選択するために本発明のシステムと関連してユーザによって使用されることができるジェスチャーの例示は、(親指などの)指によるフリック、スワイプ、及び、画面全体のフリックを含む。記述される実施例において、指が選択されたテキストを隠さず、コンテンツ選択処理の間はいつでも、選択されているテキストをユーザが容易に見ることができるようにすることに留意されるべきである。さらに、上記スワイプもしくはフリック・ジェスチャーは親指などの細かい作業に適さない指によって実行されることができ、一方の手だけを使用して、ユーザは装置を保持し、かつ、選択を実行することができる。1つもしくは複数の実施例において、コンテンツの対象部分の初期選択を行った後、選択を拡張するために、例えば、右に選択を拡張するために、ユーザは、タッチスクリーン上を指で、単に、右にスワイプするか、フリックする。さらに、もしくは、代替的に、ユーザは、一方の手によるムーブ・ジェスチャー(move gesture)によって装置全体をフリックすることも可能である。記述されたシステムの様々な実施例は、ユーザのジェスチャーを検出するために構成され、検出されたジェスチャーの特性に基づいてコンテンツ選択を調整する。
さらに、1つもしくは複数の実施例において、コンテンツ選択プロセスを容易にさせるために、システムは、コンテンツ・セグメンテーションの様々なレベルに関する情報をさらに使用することができる。例えば、スワイプもしくはフリック・ジェスチャーを検出する際に、テキスト・コンテンツの場合、ホワイト・スペース、センテンスの最後、語句の最後、句読点、段落、もしくは、章の最後などのテキスト・セグメンテーション境界を、テキスト・コンテンツのさらなる選択を停止もしくは減速させるために使用してもよい。このコンテンツアウェアネスは、例えば、コンマまでワード・セットをユーザが迅速に選択することを容易にし、スワイプが続いたならば、この境界を超えてワードを選択させ、センテンスの最後まで当該コンマを越えて選択することを可能にする。
図3は、電子表示装置上に表示されるコンテンツの部分をユーザが選択することができる計算処理システム300の実施例を示す。1つもしくは複数の実施例において、計算処理システム300はスマートフォン、PDA(personal digital assistant)、タブレット・コンピュータなどの移動用計算処理装置の形態で実装されてもよい。これらの全ては市販されており、当業者にはよく知られている。代替的な実施例において、計算処理システム300はラップトップもしくはノートブック・コンピュータに基づいて実装されてもよい。さらに、代替的な実施例において、計算処理システム300は埋め込みシステムであってもよく、電子ブック・リーダなどの特別な機能を有する電子デバイスに組み込まれていてもよい。さらに、別の実施例において、計算処理システム300は、当業者にはよく知られている拡張現実ヘッドマウント・ディスプレイ(HMD)システムの部分として実装されてもよい。
計算処理システム300は、計算処理システム300の様々なハードウェアによる構成要素をわたって、もしくは、それらの中で、情報を通信するためのデータ・バス304、もしくはその他の相互接続機構もしくは通信機構、情報を処理し、その他の計算処理タスク及び制御タスクを実行するための、データ・バス304に電気的に接続されている中央処理ユニット(CPUもしくはプロセッサ)301を含むことができる。計算処理システム300は、様々な情報及びプロセッサ301によって実行される命令を記憶し、データ・バス304に接続されているランダム・アクセス・メモリ(RAM)もしくはダイナミック・ストレージ・デバイスなどのメモリ312も含む。メモリ312は、磁気ディスク、光ディスク、半導体フラッシュ・メモリ・デバイスもしくはその他の不揮発性半導体ストレージ・デバイスなどの永続ストレージ・デバイスも含む。
1つもしくは複数の実施例において、メモリ312はプロセッサ301が命令を実行する間、一時的な変数もしくはその他の中間的な情報を記憶するために使用されてもよい。計算処理システム300は、計算処理システム300のオペレーションに必要なファームウェア、基本入出力システム(BIOS)、計算処理システム300の様々な構成パラメータなどの、静的情報及びプロセッサ301のための命令を記憶するためにデータ・バス304に接続されている、リード・オンリー・メモリ(ROMもしくはEPROM)302もしくはその他の静的ストレージ・デバイスを含んでもよいが、含まなくてもよい。
1つもしくは複数の実施例において、計算処理システム300は表示装置309を含んでいてもよい。表示装置309は、データ・バス304に電気的に接続されており、計算処理システム300のユーザに様々な情報を表示する。代替的な実施例において、表示装置309は(図示しない)グラフィック・コントローラ及び/またはグラフィック・プロセッサと関連付けられていてもよい。表示装置309は、例えば、TFT(Thin-Film Transistor)技術もしくは有機LED(OLED: Organic Light Emitting Diode)技術を用いて製造されるLCD(Liquid Crystal Display)として実装されてもよい。TFT技術及び有機LED技術は当業者によく知られている。様々な実施例において、表示装置309は、計算処理システム300の残りの構成要素と共に同一の筐体に含まれていてもよい。代替的な実施例において、表示装置309は上記筐体の外部に位置してもよい。
1つもしくは複数の実施例において、表示装置309は、ユーザもしくはユーザの任意の部分に装着される(例えば、眼鏡などの)様々なオブジェクトに関する情報を投影するように構成されているプロジェクタもしくはミニプロジェクタの形態で実装されてもよい。1つもしくは複数の実施例において、表示装置309は、ユーザの頭部もしくはその他の適切な身体の部分に装着されるように構成されていてもよい。すなわち、表示装置309は、(図示しない)適切な装着ハードウェアによって提供されてもよい。
1つもしくは複数の実施例において、計算処理システム300は、データ・バス304に電気的に接続され、MPEG−3ファイルなどの様々なオーディオ・ファイル、もしくは、MPEG−4ファイルなどの様々なビデオ・ファイルのオーディオ・トラックを再生するように構成されているオーディオ再生装置325をさらに含んでいてもよい。MPEG−3ファイル及びMPEG−4ファイルは、当業者にはよく知られている。すなわち、計算処理システム300は(図示しない)波形信号プロセッサ、サウンド・プロセッサ、もしくは同様のデバイスを含んでいてもよい。
1つもしくは複数の実施例において、計算処理システム300は、上述したスワイプもしくはフリック・ジェスチャーなどのユーザのタッチによるコマンドを受信する、タッチスクリーン・インターフェイス310などの1つもしくは複数の入力装置を含むことができる。表示装置309と共に使用されるタッチスクリーン・インターフェイス310は、タッチスクリーン機能を表示装置309に与える。すなわち、タッチスクリーン・インターフェイス310と共に稼働する表示装置309は、タッチ感知表示装置もしくは単に「タッチスクリーン」として参照される。
計算処理システム300は、様々なオブジェクトの静止画像及びビデオを取得するためにカメラ311及びキーボード306をさらに含んでいてもよい。オブジェクトは、ユーザ自身の手もしくは目を含む。カメラ311及びキーボード306は、情報を伝達するためにデータ・バス304に接続されていてもよい。情報は、画像、ビデオ、プロセッサ301への(ジェスチャーを含む)ユーザ・コマンドを含むが、これらに限定されるものではない。代替的な実施例において、入力装置は、(図示しない)ユーザの目の動きを追跡するシステムを含んでいてもよい。当該システムは、ユーザによって実行されるコマンド選択もしくはジェスチャーを計算処理システム300に示すために使用されてもよい。実施例の1つにおいて、入力装置は、計算処理システム300の後ろ側(表示側すなわち前面と反対の側)に位置するタッチ感知装置を含んでいてもよい。
1つもしくは複数の実施例において、計算処理システム300は、現在の地理的な位置、空間的な方向、及び、計算処理システム300の加速度に関するデータをデータ・バス304を介してプロセッサ301へ供給するように構成されている位置及び方向検出モジュール303を含んでいてもよい。地理的な位置情報は、例えば、GPS(global positioning system)技術、及び/もしくは、もっとも近い携帯電話用通信塔及び/もしくはWiFiホットスポットによって提供される情報を使用することなどによるその他の位置検出技術を用いる位置検出モジュール303によって取得されてもよい。加速度データは、位置及び方向検出モジュール303に組み込まれている1つもしくは複数の加速度計によって供給される。最後に、方向情報は、重力を含む3軸全てにおける加速度計測を用いて取得されてもよい。1つもしくは複数の実施例において、位置及び方向検出モジュール303によって提供される位置、方向及び加速度メタデータは、継続的に記録され、データ・ストレージ・ユニット320に蓄積される。
1つもしくは複数の実施例において、計算処理システム300は、データ・バス304に接続されているネットワーク・インターフェイス305などの通信インターフェイスをさらに含んでいてもよい。ネットワーク・インターフェイス305は、WiFiアダプタ307及び/または携帯電話ネットワーク(GSM(登録商標)もしくはCDMA)・アダプタ308の少なくとも一方を用いて、計算処理システム300とインターネット324との間の接続を確立するように構成されていてもよい。ネットワーク・インターフェイス305は、計算処理システム300及びインターネット324の間の双方向データ通信が可能となるように構成されていてもよい。WiFiアダプタ307は、当業者にはよく知られている802.11a、802.11b、802.11g及び/または802.11nプロトコル、Bluetooth(登録商標)プロトコルに従って動作してもよい。例示的な実装において、WiFiアダプタ307及び携帯電話用ネットワーク(GSM(登録商標)もしくはCDMA)・アダプタ308は様々なタイプの情報を表すデジタル・データ・ストリームを搬送する電気信号もしくは電磁信号を送受信する。
1つもしくは複数の実施例において、インターネット324は、一般に、1つもしくは複数のサブネットワークを介して、その他のネットワーク・リソースへのデータ通信を提供する。すなわち、計算処理システム300は、遠隔メディア・サーバ、ウェブ・サーバ、その他のコンテンツ・サーバ、及び、その他のネットワーク・データ・ストレージ・リソースなどのインターネット324上のどこかに位置する様々なネットワーク・リソースにアクセスすることができる。1つもしくは複数の実施例において、計算処理システム300は、メッセージ、メディア及びアプリケーション・プログラム・コードを含むその他のデータを、ネットワーク・インターフェイス305によって、インターネット324を含む様々なネットワークを介して、送信するように構成されている。インターネットの例では、計算処理システム300がネットワーク・クライアントとして動作する場合、計算処理システム300上で実行されるアプリケーション・プログラムのコードもしくはデータが要求されてもよい。同様に、その他のネットワーク・リソースに様々なデータもしくはコンピュータ・コードを送信してもよい。
1つもしくは複数の実施例において、ここで記載された機能は、メモリ312に含まれている1つもしくは複数の命令の1つもしくは複数のシーケンスをプロセッサ301が実行することにより、計算処理システム300によって実装される。このような命令は、他のコンピュータが読み取ることができる媒体からメモリ312に読み込まれてもよい。メモリ312に含まれている命令のシーケンスを実行することにより、ここで記載されている様々なプロセスのステップをプロセッサ301に実行させる。代替的な実施例において、本発明の実施例を実装するために、ハードウェアにより実現されている回路が、ソフトウェアの命令と置き換えて使用されてもよいし、ソフトウェアの命令と組み合わせて使用されてもよい。すなわち、記載された本発明の実施例は、ハードウェア回路及び/もしくはソフトウェアのいずれか特定の組み合わせに限定されるものではない。
「コンピュータ可読媒体」という用語は、実行のためにプロセッサ301に命令を提供する際に関係する任意の媒体を参照する。コンピュータ可読媒体は、機械可読媒体の一例に過ぎず、ここに記載される方法及び/もしくは技術のいずれかを実装するための命令を有していてもよい。このような媒体は、多くの形態をとることができ、不揮発性媒体、揮発性媒体などであってよいが、これらに限定されるものではない。
非一時的コンピュータ可読媒体の一般的な形態は、例えば、フロッピィ・ディスク、フレキシブル・ディスク、ハード・ディスク、磁気テープ、もしくは他の任意の磁気媒体、CD−ROM、他の任意の光媒体、パンチカード、紙テープ、パターンもしくは孔を有する他の任意の物理的媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュ・ドライブ、メモリ・カード、他の任意のメモリ・チップ、もしくは、カートリッジ、もしくは、コンピュータが読み取ることができる他の任意の媒体を含む。コンピュータ可読媒体の様々な形態は、実行させるためにプロセッサ301に1つもしくは複数の命令の1つもしくは複数のシーケンスを搬送することに含まれていてもよい。例えば、命令は、遠隔にある計算処理装置から磁気ディスク上にまず搬送されてもよい。代替的に、遠隔にある計算処理装置は、自身のダイナミック・メモリに命令をロードし、インターネット324を介して当該命令を送信してもよい。詳細には、計算処理命令は、当該技術ではよく知られている様々なネットワーク・データ通信プロトコルを使用して、インターネット324を介して、上述した遠隔にある計算処理装置から計算処理システム300のメモリ312にダウンロードされてもよい。
1つもしくは複数の実施例において、計算処理システム300のメモリ312は以下のソフトウェア・プログラム、アプリケーション、もしくはモジュールのいずれかを記憶していてもよい。
1.オペレーティング・システム(OS)313。オペレーティング・システム313は、基本システム・サービスを実装し、計算処理システム300の様々なハードウェア構成要素を管理するための携帯用オペレーティング・システムであってよい。オペレーティング・システム313の実施例は、当業者にはよく知られている。オペレーティング・システム313は、知られている、もしくは、今後開発される携帯用オペレーティング・システムであってよい。
2.アプリケーション314。アプリケーション314は、例えば、計算処理システム300のプロセッサ301によって実行されるソフトウェア・アプリケーションのセットを含んでいてもよい。アプリケーション314は、計算処理システム300に所定の機能を実行させる。所定の機能とは、例えば、表示装置309にコンテンツを表示すること、タッチスクリーン・インターフェイス310もしくはカメラ311を使用してユーザのジェスチャーを検出すること、などである。1つもしくは複数の実施例において、アプリケーション314は、詳細を後述する本発明のコンテンツ選択アプリケーション315を含んでいてもよい。
3.データ・ストレージ320。データ・ストレージ320は、例えば、計算処理システム300の表示装置309上でユーザに示される分割されたコンテンツなどのコンテンツを記憶するコンテンツ・ストレージ321、コンテンツ・セグメンテーション・メタデータ・ストレージ322、コンテンツ選択アプリケーション315を用いてユーザによって選択されたコンテンツの部分に関する情報を記憶する選択メタデータ・ストレージ323を含んでいてもよい。
1つもしくは複数の実施例において、本発明のコンテンツ選択アプリケーション315は、計算処理システム300の表示装置309上に本発明のユーザ・インターフェイスを生成するように構成されているユーザ・インターフェイス(UI)生成モジュール316を含む。本発明のコンテンツ選択アプリケーション315は、コンテンツの対象部分の選択開始をユーザに行わせる初期選択モジュール317、コンテンツに関連して生成されたユーザのジェスチャーを検出して分析するジェスチャー分析モジュール318、検出されたユーザのジェスチャーに基づいて、ユーザの選択を調整する選択調整モジュール319をさらに含んでいてもよい。
代替的な実施例において、ここに記載される、電子表示装置上に表示されるコンテンツの部分をユーザに選択させる本発明の技術は、図4にその実施例を示すように、計算処理デスクトップ・システム400上に展開されてもよい。1つもしくは複数の実施例において、計算処理デスクトップ・システム400はデータ・バス404を含んでいてもよい。データ・バス404は、図3に示す計算処理システム300のデータ・バス304と実質的に同様であり、実質的に同様に機能する。様々な実施例において、データ・バス404は、データ・バス304と同様の内部接続及び/もしくは通信プロトコルを使用してもよいし、異なる内部接続及び/もしくは通信プロトコルを使用してもよい。計算処理システム400の1つもしくは複数のプロセッサ(CPU)401、ネットワーク・アダプタ405、EPROM/ファームウェア・ストレージ402、表示装置409、キーボード406は、デスクトップ・プラットフォームのための構成に展開されることを除き、計算処理システム300のプロセッサ301、ネットワーク・インターフェイス305、EPROM/ファームウェア・ストレージ302、表示装置309、キーボード306の各々と実質的に同様である。様々な実装において、1つもしくは複数のプロセッサ401は、プロセッサ301と比較して実質的に処理能力が高くてもよい。
入力装置(キーボード406)に加えて、計算処理デスクトップ・システム400は、上述したスワイプ・ジェスチャーもしくはフリック・ジェスチャーなどのユーザのタッチ入力による命令を受信するタッチスクリーン・インターフェイス411、ユーザ自身の手もしくは目を含む様々なオブジェクトの静止画像及びビデオを取得する(図示しない)カメラ、プロセッサ401に方向情報及び命令選択を伝達するマウス、トラックボール、タッチパッド、カーソル方向キーなどのカーソル制御装置410を含むことができる。入力装置は、一般に、装置に平面の位置を特定させる2軸(第1軸(例えば、x)、第2軸(例えば、y))の2自由度を有する。
計算処理デスクトップ・システム400のLAN/ISDNアダプタ407は、例えば、(図示しない)インターネット・サービス・プロバイダのハードウェアを用いてインターネット324とのインターフェイスとして機能する、対応するタイプの電話回線にデータ通信接続を提供するISDN(Integrated Services Digital Network)カードもしくはモデムを使用して、実装されてもよい。他の例としては、LAN/ISDNアダプタ407は、互換性のあるLAN及びインターフェイス324にデータ接続通信を提供するためのLAN NIC(Local Area Network Interface Card)であってもよい。 様々なメディア・ファイルを保存するために、計算処理デスクトップ・システム400は、ストレージ・コントローラ403によって、データ・バス404に接続されるメディア・ストレージ408を含んでいてもよい。
1つもしくは複数の実施例において、計算処理デスクトップ・システム400のメモリ412は、以下のソフトウェア・プログラム、アプリケーション、もしくは、モジュールのいずれかを記憶していてもよい。
1.デスクトップ・オペレーティング・システム(OS)413。デスクトップ・オペレーティング・システム413は、基本システム・サービスを実装し、計算処理デスクトップ・システム400の様々なハードウェア構成要素を管理するオペレーティング・システムであってよい。計算処理デスクトップ・オペレーティング・システム413の実施例の全ては、当業者にはよく知られている。また、計算処理デスクトップ・オペレーティング・システム413は、現在知られているオペレーティング・システムであってもよいし、今後開発されるオペレーティング・システムであってもよい。
2.ネットワーク通信モジュール414。ネットワーク通信モジュール414は、例えば、計算処理デスクトップ・システム400と、計算処理システム300などのインターネット324の様々なエンティティとの間のネットワーク接続を、LAN/ISDNアダプタ407と共に稼働するネットワーク・アダプタ405を用いて確立するために使用される1つもしくは複数のネットワーク・プロトコル・スタックを含んでいてもよい。
3.デスクトップ・アプリケーション415。デスクトップ・アプリケーション415は、例えば、計算処理デスクトップ・システム400の1つもしくは複数のプロセッサ401によって実行される、計算処理デスクトップ・システム400に所定の機能もしくはタスクを実行させるソフトウェア・アプリケーションのセットを含んでいてもよい。1つもしくは複数の実施例において、デスクトップ・アプリケーション415は本発明のコンテンツ選択アプリケーション416を含んでいてもよい。コンテンツ選択アプリケーション416は、上述した計算処理システム300のコンテンツ選択アプリケーション315と実質的に同様に動作してもよい。コンテンツ選択アプリケーション416は、計算処理デスクトップ・システム400の表示装置409上に本発明のユーザ・インターフェイスを生成するように構成されているユーザ・インターフェイス生成モジュール417、コンテンツの対象部分の選択開始をユーザに行わせる初期選択モジュール418、コンテンツと関連して行われたユーザジェスチャーを検出し、分析するジェスチャー分析モジュール419、検出されたユーザのジェスチャーに基づいて、ユーザの選択を調整する選択調整モジュール420を含んでいてもよい。本発明のコンテンツ選択アプリケーション416の上述のモジュール417、418、419、420は、計算処理システム300上に展開されるコンテンツ選択アプリケーション315のモジュール316、317、318、319と実質的に同様に動作してもよい。
4.データ・ストレージ421。データ・ストレージ421は、例えば、計算処理デスクトップ・システム400の表示装置409上にユーザのために表示する分割されたコンテンツなどのコンテンツを記憶するコンテンツ・ストレージ422、コンテンツ選択アプリケーション416を用いてユーザによって選択されたコンテンツの部分に関する情報を記憶する選択メタデータ・ストレージ423を含んでいてもよい。
計算処理システム300及び計算処理デスクトップ・システム400上に展開された様々なソフトウェア・モジュールのオペレーションについて、以下に詳述に記載する。詳細には、図5は、電子表示装置上に表示されるコンテンツの部分をユーザに選択させる方法の実施例の例示的な動作シーケンス500を示す。
図5の方法500では、まず、ステップ501で、例えば、ユーザ・インターフェイス生成モジュール316によって計算処理システム300の表示装置309上に生成されるユーザ・インターフェイスを用いて、分割されたコンテンツがユーザのために表示される。表示されたコンテンツは、様々なタイプ、形態もしくはフォーマットであってよく、テキスト・コンテンツ、ビデオなどのグラフィック・コンテンツ、もしくは、それらの任意の組み合わせであってよいが、これらに限定されるものではない。1つもしくは複数の実施例において、表示されているコンテンツは複数レベルのセグメンテーションを用いて分割されている。例えば、テキスト・コンテンツの場合、テキスト・コンテンツを分離したワードに分離するために第1のセグメンテーション・レベルとしてホワイト・スペースが使用されてもよい。さらに、テキスト・コンテンツをセンテンスに分割するために第2のセグメンテーション・レベルとして句読点が使用されてもよい。さらに、また、テキスト・コンテンツをさらに分割するために段落及び章の境目がさらなるセグメンテーション・レベルとしてさらに使用されてもよい。
例えば、図6は計算処理システム300の表示装置309上に表示されるテキスト・コンテンツ601を示す。表示されているコンテンツ601は、ホワイト・スペース、句読点、行及び段落境界を含むコンテンツ・セグメンテーションの様々なレベルを含むことに留意されたい。上述したマルチレベル・セグメンテーションを含むコンテンツのセグメンテーションに関する情報は、例えば、コンテンツ・セグメンテーション・メタデータ・ストレージ322に、記憶されていてもよい。
グラフィック・コンテンツの場合、空間、コンテキスト(contextual)、時間の近接度に基づいて、様々なグラフィック要素をクラスタリングすることによって、分割することができる。例えば、所定の時間間隔内に生成されたホワイト・ボード上のメモは、1つのコンテンツ・クラスタにグループ化されてもよい。その他の例において、同一の主題に関連するメモは、同様に共にグループ化される。さらに、その他の例では、スライド変更イベントがコンテンツ・セグメンテーションのさらなるレベルとして使用されてもよい。しかしながら、コンテンツを分割するための多くの方法及び技術を上述した実施例に関連して使用することが可能であり、ここで記載された本発明の概念は、コンテンツの特定のタイプのいずれか、もしくは関連するコンテンツ・セグメンテーション方法によって限定されるものではないことに留意されたい。
図5の方法500を参照して、ステップ502で、初期選択モジュール317もしくは418がユーザによる初期コンテンツ選択を検出する。1つもしくは複数の実施例において、検出された初期コンテンツ選択イベントは、例えば、ワードなどの、表示装置309上に表示されているコンテンツの対象部分上のユーザによるタップ、もしくは、タップ・アンド・ホールドを含んでいてもよい。様々な実施例において、例えば、計算処理システム300もしくは計算処理デスクトップ・システム400のタッチスクリーン・インターフェイス310もしくは411を用いて、このようなイベントが検出されてもよい。1つもしくは複数の実施例において、コンテンツ・セグメンテーションに関する情報は、初期選択ステップ502で、ユーザによって選択されるコンテンツの部分を識別するために使用されてもよい。例えば、初期コンテンツ選択イベントを検出すると、初期選択モジュール317もしくは418は、ホワイト・スペースによって残りのコンテンツから分離される単一のワードを選択するように構成されていてもよい。識別された初期選択コンテンツは、次に、図5に示されるプロセス500のステップ503で、表示装置309上でマークを付される。例えば、図7は、コンテンツ選択範囲(部分)の開始及び終了を示すコンテンツ選択境界マーカ701を用いて、ユーザによって選択されたワード「technologies」にマークを付して表示装置309上にテキスト・コンテンツ601を表示する例を示す。
図5の方法500のステップ504で、ジェスチャー分析モジュール318もしくは419は表示されているコンテンツ601に関連して実行されるユーザのジェスチャーを検出し、分析する。多くのジェスチャーがここで記載される実施例に関連して使用されてもよく、本発明は特定のジェスチャーのいずれかもしくはジェスチャーのタイプによって限定されるものではないことに留意されたい。例示的なジェスチャーは、ユーザの指、手、腕、あるいは、目を使用して実行されるジェスチャーを含んでいてもよい。様々な実施例において、上述したジェスチャーは、現在知られているもしくは今後開発される技術を用いて検出されてもよい。例えば、表示装置上でのユーザの指によるフリックもしくはスワイプが、タッチスクリーン・インターフェイス310もしくは411を用いて検出されてもよい。ユーザの手の動きはカメラ311を用いて検出されてもよい。一方、(ユーザの手の中にある)計算処理システム300自身の動きを含むジェスチャーは、位置/方向検出モジュール303に埋め込まれている加速度計もしくはその他の適切なセンサを用いて検出されてもよい。最後に、ユーザの目の動きは、カメラ311を用いて検出されてもよい。計算処理システム300(400)の適切な構成要素を用いて検出されるユーザの検出されたジェスチャーに関する情報は、プロセッサ301(401)に渡され、ジェスチャー分析モジュール318(419)に埋め込まれている機能にしたがって分析される。
1つもしくは複数の実施例において、検出されたユーザのジェスチャーは、ジェスチャーのタイプ、位置、方向及び/もしくは大きさに基づいて、ジェスチャー分析モジュール318(419)によって分析される(図5に示される方法500のステップ504を参照)。ジェスチャー分析に基づいて、コンテンツ選択はステップ505で調整され、ステップ505はコンテンツ選択境界の再配置を要求することができる。1つもしくは複数の実施例において、上述のコンテンツ選択調整は、以下に詳述されるようにセグメンテーションの複数のレベルを含むコンテンツ・セグメンテーションにさらに基づいていてもよい。調整されるコンテンツ選択は、次に、ステップ506において、表示装置309上でマークを付される。1つもしくは複数の実施例において、ステップ504、505、506は、図5に示されるように繰り返されてもよい。
図8は、計算処理システム300のタッチ感知型表示装置309上に表示されるテキスト・コンテンツ601に関連して、ユーザによって実行されるジェスチャーを例示している。ユーザは、まず、表示装置309の位置801(当初マークを付されているワードの上)を指でタッチし、次に、矢印802によって示されているように、指を左にスワイプする。上述のジェスチャーを検出すると、ジェスチャー分析モジュール318は、ユーザのジェスチャーのタイプ、位置、方向及び大きさを判断するように構成されている。ユーザのジェスチャーの検出された特性に基づいて、選択調整モジュール319(420)は、図9に示されているように、コンテンツ選択範囲の境界を再配置(変更または移動)するように構成されている。詳細には、検出されたジェスチャーに応じて、コンテンツ選択境界マーカ901の開始が左に拡張され、ワード「information technologies」を含むようになる。
1つもしくは複数の実施例において、コンテンツ選択境界の開始もしくは終了がジェスチャーによって再配置され、コンテンツ選択境界は、ユーザのジェスチャーの位置及び方向に応じて、現在のコンテンツ選択範囲に関連して、ジェスチャーの方向に移動される。1つもしくは複数の実施例において、ジェスチャーの位置が、現在のコンテンツ選択範囲より通常のコンテンツの流れにおいて高い(上流側、先頭側)ならば、コンテンツ選択範囲の開始がジェスチャーによって影響を受ける。ジェスチャーの位置が、現在のコンテンツ選択範囲より通常のコンテンツの流れにおいて低い(下流側、末尾側)ならば、コンテンツ選択範囲の終了が影響を受ける。
例えば、西洋言語におけるテキストの流れと同様に、左上から右下への通常の横方向コンテンツの流れであると仮定すると、例えば、図8において指がタッチした位置801の縦方向位置によって決定されるように、ジェスチャーの縦方向位置が、コンテンツ選択範囲の開始もしくは終了のいずれがジェスチャーによって影響を受けるかを決定するために、ジェスチャー分析モジュール318(419)によって使用される。この例において、(図8に示すように、)ジェスチャーが現在のコンテンツ選択範囲よりも上であれば、コンテンツ選択範囲の開始が影響を受ける。ジェスチャーが現在のコンテンツ選択範囲よりも下であれば、コンテンツ選択範囲の終了が、図10〜図15に例示されるように、影響を受ける。一方、ジェスチャーが現在のコンテンツ選択範囲と同様の高さ方向レベルである場合、ジェスチャーがコンテンツ選択範囲の左であれば、コンテンツ選択範囲の開始が影響を受け、ジェスチャーがコンテンツ選択範囲の右であれば、コンテンツ選択範囲の終了が影響を受ける。
1つもしくは複数の実施例において、現在のコンテンツ選択範囲の縦方向位置はその終了の縦方向位置によって判断される。代替的な実施例において、コンテンツ選択範囲の開始が、この目的のために使用されてもよく、この場合、表示装置に表示されない下流のコンテンツをユーザに選択させることが容易になる。さらに、他の実施例では、コンテンツ選択範囲の真ん中が使用されてもよい。
異なる流れのパターンを有するコンテンツについては、上述した規則を変更してもよい。例えば、左上から右下への通常の縦に流れるパターンを有するコンテンツについては、現在のコンテンツ選択範囲の左でジェスチャーが検出された場合、コンテンツ選択範囲の開始に影響を受け、現在のコンテンツ選択範囲の右でジェスチャーが検出された場合、コンテンツ選択範囲の終了に影響を受ける。
1つもしくは複数の実施例において、ジェスチャーの方向は、コンテンツ選択範囲境界の移動の方向を決定する。一例において、コンテンツ選択範囲境界は、ジェスチャーの方向と同じ一般的方向に移動する。例えば、図8及び図9について、参照符号801及び802によって示されるジェスチャーは左(テキストの流れの上流方向)に向かい、図9の参照符号901に示されるように、コンテンツ選択範囲の開始も左(テキストの流れの上流方向)に移動している。
1つもしくは複数の実施例において、コンテンツ・セグメンテーションに対してとられるユーザのジェスチャーの大きさが、コンテンツ選択範囲境界の再配置の程度を決定するために、ジェスチャー分析モジュール318(419)によって使用される。すなわち、様々な実施例において、コンテンツ選択範囲は、ジェスチャーの大きさに応じて、ワード、行、センテンス、もしくは段落の最後に再配置される。すなわち、ユーザのジェスチャーの計測された大きさが、コンテンツ・セグメンテーション境界を決定する。選択範囲は、当該ジェスチャーの検出に応じて、決定されたコンテンツ・セグメンテーション境界まで拡張される。1つもしくは複数の実施例において、ジェスチャーの大きさが大きいほど、対応するセグメンテーション境界のレベルも大きくなる。
例えば、図8及び図9について、図8の短い左矢印802によって示される短いジェスチャーの検出は、左に、次のワードの開始まで選択範囲境界の開始を移動させる(図9参照)。一方、その他の例において、図10及び図11に例示されるように、図10のより長い大きさ1001のジェスチャーの検出は、図11の参照符号1101によって示されるように、センテンスの終了まで選択範囲の境界の終了を拡張させる。図12の参照符号1201によって示されるように、この長いジェスチャーを繰り返すことによって、図13の参照符号1301によって示されるように、次のセンテンスの終了まで選択範囲の境界の終了を拡張させる。最後に、図14に示されるように、反対の方向に小さいジェスチャー1401を検出すると、図15の参照符号1501によって示されるように、左に、ワードの開始まで、選択範囲の境界の終了を移動させる。
他の実施例において、ジェスチャーの大きさに応じて、選択範囲境界は、複数のワード、行、語句、センテンスもしくは段落を通過して移動してもよい。様々な実施例において、ジェスチャーのタイプは、コンテンツ・セグメンテーション境界を決定してもよい。選択範囲は決定されたコンテンツ・セグメンテーション境界まで拡張される。例えば、検出されたスワイプ及びフリック・ジェスチャーは、選択境界の再配置に異なる程度をもたらす。
1つもしくは複数の実施例において、上述された例の他に、さらなるコンテンツ・セグメンテーション境界が、当業者によく知られている様々な技術を用いたワードのセマンティックなグループ化によって確立されてもよい。様々な実施例において、スピーチ・タグ付け(speech tagging)もしくは、固有名認識(name entity recognition)を用いて、ワードが共にグループ化されてもよい。例えば、ユーザが図7に示されているコンテンツのワード「Alto」を選択し、コンテンツ選択範囲の開始境界及び終了境界を拡張するためにフリック・ジェスチャーを行うと、テキスト・エンティティ抽出手段は、「FX Palo Alto Laboratory」の周囲の境界を決定し、ユーザがスワイプもしくはフリック・ジェスチャーを継続して行わないと、選択範囲はこの境界で停止する。
1つもしくは複数の実施例において、テキスト・コンテンツ自身がテキスト形態で利用することができない場合、選択調整モジュール319(420)は、行及び段落境界を識別するためによく知られているページ・イメージ・セグメンテーション・アルゴリズムに依存し、上述したのと同様の技術を適用するように構成されている。実施例の1つにおいて、選択調整モジュール319(420)は、選択範囲の境界がコンテンツ・セグメンテーション境界に近付くと、選択範囲の境界の移動速度が遅くなるように構成されている。しかし、ユーザは、このセグメンテーション境界を超えて移動を継続することを所望する場合、指を上げる必要がある。ユーザは、選択範囲が当該ポイントを超えて移動する前に、表示装置上でほんの少し多くの空間を移動する必要がある。
図16〜図20は、タッチ感知表示装置309に表示されている非テキスト・コンテンツ1600の部分をユーザに選択させるために、ここに記述された本発明の概念のその他の実施例のオペレーションの様々な態様を例示する。詳細には、表示されているコンテンツ1600は非テキストであり、表示されているコンテンツ1600のグラフィック要素の空間的、時間的、もしくは、コンテキスト的近似度に基づいて、コンテンツ・クラスタ(セグメント)1601、1602、1603、1604にセグメント化される。さらに、コンテンツ・セグメンテーションは、複数のコンテンツ・クラスタを含むスライド、もしくはページに基づいて、実行されてもよい。
テキスト・コンテンツに関して上述した実施例において、まずユーザは対象コンテンツ・クラスタ1602の選択を開始する。図16において、コンテンツ選択範囲は、例えば、太線で示されている。次に、図17に示されるように最初の選択1602の下流でユーザのジェスチャー1701が検出されると、選択調整モジュール319(420)は、図18に示すように、コンテンツ・クラスタ1603をさらに含むように、コンテンツ選択境界1801を下流に拡張するように構成されている。次のコンテンツ・クラスタ1603は、非テキスト・コンテンツ1600の最初のセグメンテーション境界を示すことに留意されたい。最後に、図19に示すように、より長いジェスチャー1901に応じて、選択調整モジュール319(420)は、非テキスト・コンテンツ1600の次の(第2の)コンテンツ・セグメンテーション境界(コンテンツ・スライドの最後)を示す、図20の参照符号2001によって示される、コンテンツ1600の最後(コンテンツ・スライドの最後)までの全てに、コンテンツ選択境界1602を拡張するように構成されている。すなわち、当業者であれば、上述されたコンテンツ選択システムのこの実施例のオペレーションが、図6〜図15に関連して例示されている実施例のオペレーションに実質的に類似していることは明らかであろう。
ここで記述された新規なコンテンツ選択技術は、タッチ感知表示装置を使用せずに完全に実装することができる。上記したように、様々なユーザのジェスチャーが様々な検知デバイスを用いて検知されてもよい。検知デバイスには、カメラ、タッチパッド、加速度計、その他の現在知られている、もしくは、今後開発される改良された検知型装置を含むが、本開示は、これらに限定されるものではない。すなわち、本発明はユーザのジェスチャー検出のための任意の特定の手段に限定されるものではない。
最後に、ここに記述されたプロセス及び技術は、特定の装置のいずれかに固有に関連するものではなく、任意の適切な構成要素の組み合わせによって実装されてもよい。また、汎用装置の様々なタイプがここに記述された教示にしたがって使用されてもよい。ここで記述された方法のステップを実行するために、専用装置を構成することも有効である。本発明は、限定ではなく例示を意図する特定の例に関連して記載されている。当業者であれば、ハードウェア、ソフトウェア、及びファームウェアの多くの異なる組み合わせが本発明を実行するために適していることを理解するだろう。例えば、記述されたソフトウェアは、アセンブラ、C/C++、Objective−C、perl、shell、PHP、Java(登録商標)、及び、現在知られているもしくは今後開発されるプログラミング言語もしくはスクリプト言語などの様々なプログラミング言語もしくはスクリプト言語によって実装されてもよい。
さらに、本発明のその他の実装は、ここに開示された本発明の詳細及び実施を考慮することにより、当業者には明らかである。記述された実施例の様々な態様及び/もしくは構成要素は、電子表示装置上に表示されるコンテンツの部分をユーザに選択させるために、システム及び方法において、個別に、もしくは、任意に組み合わせて使用されてもよい。詳細及び実施例は例示を意図し、本発明の真の範囲及び思想はクレームによって示される。
300 計算処理システム
301 CPU
309 表示装置
310 タッチスクリーン・インターフェイス
316 UI生成モジュール
317 初期選択モジュール
318 ジェスチャー分析モジュール
319 選択調整モジュール

Claims (15)

  1. コンテンツの一部をユーザのジェスチャーによって選択させるためのシステムであって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析モジュールと、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整モジュールと、
    を備え
    前記選択調整モジュールは、検出されたユーザのジェスチャーが大きいほど前記選択範囲の境界を大きく移動する、
    システム。
  2. 前記選択調整モジュールは、前記コンテンツの先頭側に向かうジェスチャーが検出された場合には、前記選択範囲の境界を前記コンテンツの先頭側に移動し、前記コンテンツの末尾側に向かうジェスチャーが検出された場合には、前記選択範囲の境界を前記コンテンツの末尾側に移動する、請求項1に記載のシステム。
  3. 前記コンテンツはセグメントに分けられており、
    前記選択調整モジュールは、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更する、請求項1または請求項2に記載のシステム。
  4. 前記選択調整モジュールは、前記選択範囲の境界を移動しているあいだに当該境界が前記コンテンツのセグメントの境界の1つに達した場合には、前記選択範囲の境界を移動する速度を下げる、請求項に記載のシステム。
  5. 前記コンテンツはテキストであり、
    前記コンテンツは、単語の境界、節の境界、文の境界、空白、句点、読点、カンマ、及び、ピリオドの少なくとも1つに基づいてセグメントに分けられている、
    請求項3または請求項4に記載のシステム。
  6. 前記コンテンツはビデオであり、
    前記コンテンツは、空間的な近さ、時間的な近さ、及び、内容の近さのうちの少なくとも1つに基づいてセグメントに分けられている、
    請求項3または請求項4に記載のシステム。
  7. タッチパネル方式のディスプレイデバイスに前記コンテンツを表示するユーザ・インターフェイス生成モジュールと、
    ユーザによる前記ディスプレイデバイスに対するタップのジェスチャーを検出した場合に、前記コンテンツのうちタップされた部分を前記選択範囲として設定する選択モジュールと、
    を更に備え、
    前記ジェスチャー分析モジュールは、ユーザによる前記ディスプレイデバイスに対するスワイプのジェスチャーを、前記選択範囲の外側であって前記選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、
    前記選択調整モジュールは、前記スワイプのジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を前記スワイプの方向に移動し、前記スワイプのジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を前記スワイプの方向に移動する、
    請求項1〜請求項6の何れか1項に記載のシステム。
  8. コンテンツの一部をユーザのジェスチャーによって選択させるためのシステムであって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析モジュールと、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整モジュールと、
    を備え、
    前記コンテンツはセグメントに分けられており、
    前記選択調整モジュールは、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記選択調整モジュールは、前記選択範囲の境界を移動しているあいだに当該境界が前記コンテンツのセグメントの境界の1つに達した場合には、前記選択範囲の境界を移動する速度を下げる、
    システム。
  9. コンテンツの一部をユーザのジェスチャーによって選択させるためのシステムであって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析モジュールと、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整モジュールと、
    を備え、
    前記コンテンツはセグメントに分けられており、
    前記選択調整モジュールは、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記コンテンツはビデオであり、
    前記コンテンツは、空間的な近さ、時間的な近さ、及び、内容の近さのうちの少なくとも1つに基づいてセグメントに分けられている、
    システム。
  10. コンピュータによって、コンテンツの一部をユーザのジェスチャーによって選択させるためのプログラムであって、
    前記コンピュータに、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置をコンピュータによって再配置し、
    検出されたユーザのジェスチャーが大きいほど前記選択範囲の境界を大きく移動する、
    ことを実行させるプログラム。
  11. コンピュータによって、コンテンツの一部をユーザのジェスチャーによって選択させるためのプログラムであって、
    前記コンピュータに、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置をコンピュータによって再配置し、
    前記コンテンツはセグメントに分けられており、
    前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記選択範囲の境界を移動しているあいだに当該境界が前記コンテンツのセグメントの境界の1つに達した場合には、前記選択範囲の境界を移動する速度を下げる、
    ことを実行させるプログラム。
  12. コンピュータによって、コンテンツの一部をユーザのジェスチャーによって選択させるためのプログラムであって、
    前記コンピュータに、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断し、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置をコンピュータによって再配置し、
    前記コンテンツはセグメントに分けられており、
    前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記コンテンツはビデオであり、
    前記コンテンツは、空間的な近さ、時間的な近さ、及び、内容の近さのうちの少なくとも1つに基づいてセグメントに分けられている、
    ことを実行させるプログラム。
  13. コンテンツの一部をユーザのジェスチャーによって選択させる計算処理装置であって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析手段と、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整手段と、
    を備え、
    前記選択調整手段は、検出されたユーザのジェスチャーが大きいほど前記選択範囲の境界を大きく移動する、
    計算処理装置。
  14. コンテンツの一部をユーザのジェスチャーによって選択させる計算処理装置であって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析手段と、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整手段と、
    を備え、
    前記コンテンツはセグメントに分けられており、
    前記選択調整手段は、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記選択調整手段は、前記選択範囲の境界を移動しているあいだに当該境界が前記コンテンツのセグメントの境界の1つに達した場合には、前記選択範囲の境界を移動する速度を下げる、
    計算処理装置。
  15. コンテンツの一部をユーザのジェスチャーによって選択させる計算処理装置であって、
    表示された前記コンテンツに対するユーザのジェスチャーを、既に設定された選択範囲よりも先頭側及び末尾側のいずれにおいて検出したかを判断するジェスチャー分析手段と、
    前記ジェスチャーを前記選択範囲よりも先頭側で検出した場合には前記選択範囲の境界の開始位置を再配置し、前記ジェスチャーを前記選択範囲よりも末尾側で検出した場合には前記選択範囲の境界の終了位置を再配置する選択調整手段と、
    を備え、
    前記コンテンツはセグメントに分けられており、
    前記選択調整手段は、前記コンテンツのセグメントの境界に更に基づいて、前記選択範囲の境界を変更し、
    前記コンテンツはビデオであり、
    前記コンテンツは、空間的な近さ、時間的な近さ、及び、内容の近さのうちの少なくとも1つに基づいてセグメントに分けられている、
    計算処理装置。
JP2013183411A 2013-03-18 2013-09-04 コンテンツの部分の境界を再配置するシステム、プログラム及び計算処理装置 Active JP6056715B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/846,840 2013-03-18
US13/846,840 US9785240B2 (en) 2013-03-18 2013-03-18 Systems and methods for content-aware selection

Publications (2)

Publication Number Publication Date
JP2014182786A JP2014182786A (ja) 2014-09-29
JP6056715B2 true JP6056715B2 (ja) 2017-01-11

Family

ID=51534534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013183411A Active JP6056715B2 (ja) 2013-03-18 2013-09-04 コンテンツの部分の境界を再配置するシステム、プログラム及び計算処理装置

Country Status (2)

Country Link
US (2) US9785240B2 (ja)
JP (1) JP6056715B2 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US20140372856A1 (en) * 2013-06-14 2014-12-18 Microsoft Corporation Natural Quick Functions Gestures
WO2015141093A1 (ja) * 2014-03-20 2015-09-24 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
CN106104446A (zh) * 2014-03-20 2016-11-09 日本电气株式会社 信息处理设备、信息处理方法和信息处理程序
US20150277744A1 (en) * 2014-03-27 2015-10-01 Motorola Mobility Llc Gesture Text Selection
US10423706B2 (en) * 2014-10-31 2019-09-24 Xiaomi Inc. Method and device for selecting information
US9652124B2 (en) 2014-10-31 2017-05-16 Microsoft Technology Licensing, Llc Use of beacons for assistance to users in interacting with their environments
US10257133B2 (en) * 2014-12-19 2019-04-09 Oath Inc. Content selection
US9535527B2 (en) * 2015-02-18 2017-01-03 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling selection of information
JP6463209B2 (ja) * 2015-04-15 2019-01-30 キヤノン株式会社 表示装置及び表示方法
JP5906344B1 (ja) * 2015-07-06 2016-04-20 ヤフー株式会社 情報処理装置、情報表示プログラムおよび情報表示方法
KR20170017572A (ko) * 2015-08-07 2017-02-15 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
CN110502293B (zh) * 2019-07-10 2022-02-01 维沃移动通信有限公司 一种截屏方法及终端设备
CN110471610A (zh) * 2019-08-16 2019-11-19 上海闻泰信息技术有限公司 终端控制方法、装置、终端及存储介质
CN110515530B (zh) * 2019-08-28 2021-04-20 北京思维造物信息科技股份有限公司 一种文字操作的处理方法、装置、设备和存储介质

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5680479A (en) * 1992-04-24 1997-10-21 Canon Kabushiki Kaisha Method and apparatus for character recognition
US5588072A (en) * 1993-12-22 1996-12-24 Canon Kabushiki Kaisha Method and apparatus for selecting blocks of image data from image data having both horizontally- and vertically-oriented blocks
EP0677811A1 (en) * 1994-04-15 1995-10-18 Canon Kabushiki Kaisha Image processing system with on-the-fly JPEG compression
US5881169A (en) * 1996-09-13 1999-03-09 Ericsson Inc. Apparatus and method for presenting and gathering text entries in a pen-based input device
US7010110B2 (en) * 1999-03-31 2006-03-07 Walker Digital, Llc Method and apparatus for monitoring telephone status
US20020015064A1 (en) * 2000-08-07 2002-02-07 Robotham John S. Gesture-based user interface to multi-level and multi-modal sets of bit-maps
US6891551B2 (en) * 2000-11-10 2005-05-10 Microsoft Corporation Selection handles in editing electronic documents
US6773177B2 (en) * 2001-09-14 2004-08-10 Fuji Xerox Co., Ltd. Method and system for position-aware freeform printing within a position-sensed area
US7411575B2 (en) * 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7958456B2 (en) * 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US8024754B2 (en) * 2006-02-13 2011-09-20 Sharp Kabushiki Kaisha Content processing device, content processing method, control program, and storage medium
KR100771626B1 (ko) * 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US8656295B2 (en) * 2007-01-05 2014-02-18 Apple Inc. Selecting and manipulating web content
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US9274698B2 (en) * 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
US20090125848A1 (en) * 2007-11-14 2009-05-14 Susann Marie Keohane Touch surface-sensitive edit system
US8078979B2 (en) * 2007-11-27 2011-12-13 Microsoft Corporation Web page editor with element selection mechanism
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
JP4680273B2 (ja) * 2008-02-05 2011-05-11 京セラ株式会社 表示機能付き端末
US8201109B2 (en) * 2008-03-04 2012-06-12 Apple Inc. Methods and graphical user interfaces for editing on a portable multifunction device
US8650507B2 (en) * 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
US8375336B2 (en) * 2008-05-23 2013-02-12 Microsoft Corporation Panning content utilizing a drag operation
US20090313020A1 (en) * 2008-06-12 2009-12-17 Nokia Corporation Text-to-speech user interface control
US20090327974A1 (en) * 2008-06-26 2009-12-31 Microsoft Corporation User interface for gestural control
US8924892B2 (en) * 2008-08-22 2014-12-30 Fuji Xerox Co., Ltd. Multiple selection on devices with many gestures
EP2175354A1 (en) * 2008-10-07 2010-04-14 Research In Motion Limited Portable electronic device and method of controlling same
US8205168B1 (en) * 2008-12-01 2012-06-19 Adobe Systems Incorporated Methods and systems for page navigation of dynamically laid-out systems
US20130014041A1 (en) * 2008-12-09 2013-01-10 Denny Jaeger Using gesture objects to replace menus for computer control
US8291348B2 (en) * 2008-12-31 2012-10-16 Hewlett-Packard Development Company, L.P. Computing device and method for selecting display regions responsive to non-discrete directional input actions and intelligent content analysis
US8326358B2 (en) * 2009-01-30 2012-12-04 Research In Motion Limited System and method for access control in a portable electronic device
US8786556B2 (en) * 2009-03-12 2014-07-22 Nokia Corporation Method and apparatus for selecting text information
US9875013B2 (en) * 2009-03-16 2018-01-23 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
CN101859309A (zh) * 2009-04-07 2010-10-13 慧科讯业有限公司 重复文本识别系统及方法
US20100293460A1 (en) * 2009-05-14 2010-11-18 Budelli Joe G Text selection method and system based on gestures
US20120131520A1 (en) * 2009-05-14 2012-05-24 Tang ding-yuan Gesture-based Text Identification and Selection in Images
KR20100130671A (ko) * 2009-06-04 2010-12-14 삼성전자주식회사 터치 인터페이스에서 선택 영역의 제공 장치 및 그 방법
US8347232B1 (en) * 2009-07-10 2013-01-01 Lexcycle, Inc Interactive user interface
US8531410B2 (en) 2009-08-18 2013-09-10 Fuji Xerox Co., Ltd. Finger occlusion avoidance on touch display devices
US20110043453A1 (en) 2009-08-18 2011-02-24 Fuji Xerox Co., Ltd. Finger occlusion avoidance on touch display devices
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8520983B2 (en) * 2009-10-07 2013-08-27 Google Inc. Gesture-based selective text recognition
US8577887B2 (en) * 2009-12-16 2013-11-05 Hewlett-Packard Development Company, L.P. Content grouping systems and methods
US20110202835A1 (en) * 2010-02-13 2011-08-18 Sony Ericsson Mobile Communications Ab Item selection method for touch screen devices
US8704783B2 (en) * 2010-03-24 2014-04-22 Microsoft Corporation Easy word selection and selection ahead of finger
US9405404B2 (en) * 2010-03-26 2016-08-02 Autodesk, Inc. Multi-touch marking menus and directional chording gestures
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
US8218875B2 (en) * 2010-06-12 2012-07-10 Hussein Khalid Al-Omari Method and system for preprocessing an image for optical character recognition
US20110320978A1 (en) * 2010-06-29 2011-12-29 Horodezky Samuel J Method and apparatus for touchscreen gesture recognition overlay
US20120019453A1 (en) * 2010-07-26 2012-01-26 Wayne Carl Westerman Motion continuation of touch input
US9395907B2 (en) * 2010-08-20 2016-07-19 Nokia Technologies Oy Method and apparatus for adapting a content package comprising a first content segment from a first content source to display a second content segment from a second content source
US8614665B2 (en) * 2010-11-19 2013-12-24 Qualcomm Innovation Center, Inc. Touch screen
US8997025B2 (en) * 2010-11-24 2015-03-31 Fuji Xerox Co., Ltd. Method, system and computer readable medium for document visualization with interactive folding gesture technique on a multi-touch display
US10503255B2 (en) * 2010-12-02 2019-12-10 Immersion Corporation Haptic feedback assisted text manipulation
US8405627B2 (en) * 2010-12-07 2013-03-26 Sony Mobile Communications Ab Touch input disambiguation
JP5675309B2 (ja) * 2010-12-07 2015-02-25 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US20120185787A1 (en) * 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US20120216113A1 (en) * 2011-02-18 2012-08-23 Google Inc. Touch gestures for text-entry operations
JP2012185323A (ja) * 2011-03-04 2012-09-27 Sharp Corp 再生装置、再生方法、プログラムおよび記録媒体
CN103502921B (zh) * 2011-04-19 2017-06-09 黑莓有限公司 文本指示符方法和电子设备
US9032338B2 (en) * 2011-05-30 2015-05-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating and editing text
US9244605B2 (en) * 2011-05-31 2016-01-26 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
DE112011105305T5 (de) * 2011-06-03 2014-03-13 Google, Inc. Gesten zur Textauswahl
US8341223B1 (en) * 2011-06-07 2012-12-25 Banjo, Inc. Method for relevant content discovery
US9582187B2 (en) * 2011-07-14 2017-02-28 Microsoft Technology Licensing, Llc Dynamic context based menus
US9086794B2 (en) * 2011-07-14 2015-07-21 Microsoft Technology Licensing, Llc Determining gestures on context based menus
US9417754B2 (en) * 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8176435B1 (en) * 2011-09-08 2012-05-08 Google Inc. Pinch to adjust
US9612670B2 (en) * 2011-09-12 2017-04-04 Microsoft Technology Licensing, Llc Explicit touch selection and cursor placement
US20130067392A1 (en) * 2011-09-12 2013-03-14 Microsoft Corporation Multi-Input Rearrange
US10318146B2 (en) * 2011-09-12 2019-06-11 Microsoft Technology Licensing, Llc Control area for a touch screen
US20130067366A1 (en) * 2011-09-14 2013-03-14 Microsoft Corporation Establishing content navigation direction based on directional user gestures
US9218123B2 (en) * 2011-12-29 2015-12-22 Apple Inc. Device, method, and graphical user interface for resizing content viewing and text entry interfaces
US9928562B2 (en) * 2012-01-20 2018-03-27 Microsoft Technology Licensing, Llc Touch mode and input type recognition
US9229613B2 (en) * 2012-02-01 2016-01-05 Facebook, Inc. Transitions among hierarchical user interface components
EP2631747B1 (en) * 2012-02-24 2016-03-30 BlackBerry Limited Method and apparatus for providing a user interface on a device that indicates content operators
US8963962B2 (en) * 2012-03-06 2015-02-24 Apple Inc. Display of multiple images
US9354805B2 (en) * 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
US9454303B2 (en) * 2012-05-16 2016-09-27 Google Inc. Gesture touch inputs for controlling video on a touchscreen
US9552596B2 (en) * 2012-07-12 2017-01-24 Spritz Technology, Inc. Tracking content through serial presentation
US9262699B2 (en) * 2012-07-19 2016-02-16 Qualcomm Incorporated Method of handling complex variants of words through prefix-tree based decoding for Devanagiri OCR
JP2014021787A (ja) * 2012-07-19 2014-02-03 Sharp Corp 文字列選択装置、文字列選択方法、制御プログラム、および、記録媒体
US8584049B1 (en) * 2012-10-16 2013-11-12 Google Inc. Visual feedback deletion
US9098127B2 (en) * 2012-10-17 2015-08-04 Blackberry Limited Electronic device including touch-sensitive display and method of controlling same
US9892761B2 (en) * 2013-02-22 2018-02-13 Fuji Xerox Co., Ltd. Systems and methods for creating and using navigable spatial overviews for video
US10025459B2 (en) * 2013-03-14 2018-07-17 Airwatch Llc Gesture-based workflow progression
US9785240B2 (en) * 2013-03-18 2017-10-10 Fuji Xerox Co., Ltd. Systems and methods for content-aware selection
US9317171B2 (en) * 2013-04-18 2016-04-19 Fuji Xerox Co., Ltd. Systems and methods for implementing and using gesture based user interface widgets with camera input
US10019153B2 (en) * 2013-06-07 2018-07-10 Nook Digital, Llc Scrapbooking digital content in computing devices using a swiping gesture
US20150081448A1 (en) * 2013-09-16 2015-03-19 Microsoft Corporation Non-intrusive advertisement management
US20150244772A1 (en) * 2014-02-24 2015-08-27 Triple It B.V. Fast rendering of content using a mobile user device
US10042537B2 (en) * 2014-05-30 2018-08-07 Apple Inc. Video frame loupe
US20160103563A1 (en) * 2014-10-09 2016-04-14 Wrap Media Llc System and method for authoring, distributing, viewing and saving wrap packages
US9880735B2 (en) * 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203866B2 (en) * 2017-05-16 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for navigating between user interfaces and interacting with control objects
US10636134B2 (en) * 2018-09-07 2020-04-28 Fluke Corporation Display apparatus and method for optical fiber inspection

Also Published As

Publication number Publication date
US11334169B2 (en) 2022-05-17
US9785240B2 (en) 2017-10-10
US20140282242A1 (en) 2014-09-18
JP2014182786A (ja) 2014-09-29
US20180032145A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
JP6056715B2 (ja) コンテンツの部分の境界を再配置するシステム、プログラム及び計算処理装置
DK180640B1 (en) Devices and methods of measurement using augmented reality
US20210049321A1 (en) Device, method, and graphical user interface for annotating text
US9886179B2 (en) Anchored approach to scrolling
US9013428B2 (en) Electronic device and handwritten document creation method
KR102059913B1 (ko) 태그 정보 저장 방법 및 장치와 태그 정보를 이용한 이미지 검색 방법 및 장치
US10282090B2 (en) Systems and methods for disambiguating intended user input at an onscreen keyboard using dual strike zones
US10282083B2 (en) Device, method, and graphical user interface for transitioning between user interfaces
US9665276B2 (en) Character deletion during keyboard gesture
US9626087B2 (en) Device, method, and graphical user interface for navigating between user interfaces
US20160170617A1 (en) Automatic active region zooming
US20130215018A1 (en) Touch position locating method, text selecting method, device, and electronic equipment
EP3234732A1 (en) 3d visualization
EP2755126A2 (en) Method and device for displaying scrolling information in electronic device
US11379112B2 (en) Managing content displayed on a touch screen enabled device
JP2022519981A (ja) 可変速度音素発音機械
US10613732B2 (en) Selecting content items in a user interface display
US20180350121A1 (en) Global annotations across contents
US20170153810A1 (en) Systems and methods for virtually weighted user input elements for performing critical actions
KR102027548B1 (ko) 전자장치에서 화면표시 제어 방법 및 장치
KR20170045401A (ko) 문맥 정보에 기초하여 스크롤을 제어하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능한 기록 매체
CA3157612A1 (en) Speech synthesizer with multimodal blending
KR20170017166A (ko) 전자 장치, 전자 장치의 문자 입력 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150819

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6056715

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350