JP6055961B2 - テキスト選択及び入力 - Google Patents

テキスト選択及び入力 Download PDF

Info

Publication number
JP6055961B2
JP6055961B2 JP2015503726A JP2015503726A JP6055961B2 JP 6055961 B2 JP6055961 B2 JP 6055961B2 JP 2015503726 A JP2015503726 A JP 2015503726A JP 2015503726 A JP2015503726 A JP 2015503726A JP 6055961 B2 JP6055961 B2 JP 6055961B2
Authority
JP
Japan
Prior art keywords
text
character string
input
editing area
display interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015503726A
Other languages
English (en)
Other versions
JP2015518604A (ja
Inventor
リーフォン リャーン
リーフォン リャーン
クン ジャオ
クン ジャオ
Original Assignee
グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー
グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー, グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー filed Critical グーグル テクノロジー ホールディングス リミティド ライアビリティ カンパニー
Publication of JP2015518604A publication Critical patent/JP2015518604A/ja
Application granted granted Critical
Publication of JP6055961B2 publication Critical patent/JP6055961B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/274Converting codes to words; Guess-ahead of partial word inputs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Input From Keyboards Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

コンピュータ機器、携帯電話、エンターテイメント機器、ナビゲーション装置及び他の電子機器は、ユーザが選択可能なタッチ入力及びゼスチャー入力を容易にするタッチパッド又はタッチスクリーンディスプレイのようなタッチセンサー式の統合インタフェースを考慮してますます設計されている。例えば、ユーザは、ユーザインタラクションのために表示されるバーチャルキーボード(又はオンスクリーンキーボード)に対するタッチ入力を用いることによって、メッセージ、電子メール及び文書のテキストを入力及び編集することができる。しばしば、ユーザは、既に入力され及び/又は機器の表示スクリーンに表示された単語又は語句を入力する必要がある。単語又は語句を入力又は再入力するよりはむしろ、ユーザは、テキストをコピーし、その後、テキストをテキスト入力領域にペーストすることができる。しかしながら、単語をコピー及びペーストするのに必要なステップ数は、単語を再入力する場合より多くなることがある。最小でも、ユーザは、典型的には、コピーする単語(又は語句)を選択し、単語をコピーするためのコピー動作を開始し、文字挿入位置を選択し、その後、ペースト動作を開始する必要がある。
テキスト選択及び入力の実施の形態を、以下の図を参照しながら説明する。
同一の番号を、図示した同様な形態及び構成要素を参照する間に用いることができる。
図1は、テキスト選択及び入力の実施の形態を実現することができる例示的なシステムを示す。 図2は、一つ以上の実施の形態によるテキスト選択及び入力の例を示す。 図3は、一つ以上の実施の形態によるテキスト選択及び入力の一つ以上の例示的な方法を示す。 図4は、テキスト選択及び入力の実施の形態を実現することができる例示的な電子機器の種々の構成要素を示す。
コンピュータ、ゲーム機、遠隔制御装置、ナビゲーション装置又は携帯電話のような電子機器は、ユーザが機器と情報をやりとりするとともに、例えば、インスタントメッセージ、電子メール、ブラウザ、住所録及び他のユーザインタフェーステキスト入力及び編集形態のようなテキストを入力するタッチセンサー式のインタフェースを含むことができる。テキスト選択及び入力の実施の形態において、選択可能な文字列を、タッチセンサー式の表示素子の表示インタフェースに表示されるテキストから決定することができる。選択可能な文字列を、文字、数字、記号、単語、語句、数字列、文字数字の列及び/又はその任意の組合せとすることができる。この場合、表示素子に表示される選択可能な文字列の各々の位置を識別する文字列変換テーブルを生成することができる。
ユーザは、テキスト編集領域、アプリケーション又は表示インタフェース(例えば、アプリケーションウィンドウ)に表示される単語、語句又は電話番号のような選択可能な文字列を選択することができ、この場合、選択可能な文字列は、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置でテキスト入力としてデュープされる(duplicated)(例えば、入力される)。例えば、ユーザがバーチャルキーボードのテキスト編集領域にテキストを入力すると、ユーザは、以前に入力した単語又は語句を選択することによって時間を節約することができる。選択した予め入力されたテキスト入力は、選択した文字列の選択に応答して、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置でデュープされる。
テキスト選択及び入力の特徴及び概念を、任意の数の異なる装置、システム及び/又は形態において実現することができるが、テキスト選択及び入力の実施の形態を、以下の例示の装置、システム及び方法との関連で説明する。
図1は、テキスト選択及び入力の実施の形態を実現することができる例示のシステム100を示す。例示のシステム100は、デスクトップコンピュータ、ポータブルコンピュータ、タブレット型コンピュータ、携帯電話、ナビゲーション装置、ゲーム機、ゲームコントローラ、遠隔制御装置、ポケットベル等の任意の形態の固定装置又はモバイル機器の任意の一つ又は組合せとすることができる電子機器102を有する。電子機器は、任意のタイプのタッチセンサー式統合ディスプレイ又はインタフェースのようなタッチセンサー式表示素子を有するタッチ検出システム104を有する。タッチセンサー式表示素子を、ゼスチャー、入力及び動きを検知及び/又は検出する任意のタイプの容量性、抵抗性又は赤外線インタフェースとして実現することができる。電子機器のいずれかを、一つ以上のプロセッサ及び記憶装置のような種々の構成要素、並びに、図4に示す例示の電子機器を参照して後に説明するような任意の数及び組合せの構成要素によって実現することができる。
タッチ検出システム104は、指入力及び/又はタッチペン入力のようなタッチセンサー式ディスプレイへのユーザ起動のタッチコンタクト及び/又はタッチゼスチャー入力を検知及び/又は検出するために実現される。タッチ検出システムは、タッチコンタクト、タッチゼスチャー入力及び/又は入力の組合せをタッチ入力データ108として受信する。例示のシステム100において、電子機器102は、ソフトウェアアプリケーションのようなコンピュータ実行可能な命令として実現することができるとともにテキスト選択及び入力の種々の実施の形態を実現する一つ以上のプロセッサによって実行することができるテキスト入力アプリケーション110を有する。一般的に、テキスト入力アプリケーションは、タッチ検出システムからタッチ入力データ108を受信し、テキスト選択及び入力の実施の形態を実施する。
テキスト選択及び入力の例を112で示し、この場合、ユーザは、電子機器102を一方の手で保持することができ、他方の手の指(又はタッチペン若しくは他の入力装置)によってタッチセンサー式表示素子106と情報をやりとりすることができる。本例において、テキスト編集領域120にテキスト118を入力するユーザインタラクションのための(例えば、オンスクリーンキーボードとして表示される)バーチャルキーボード116を含むキーボードインタフェース114が表示される。実施の形態において、テキスト編集領域120は、キーボードインタフェース114に近接して表示されるディスプレイインタフェースの一例である。テキストがテキスト編集領域に入力されると、テキスト編集領域に入力及び表示されるテキストから選択可能な文字列を決定するためにテキスト入力アプリケーション110を実行する。選択可能な文字列を、文字、数字、記号、単語、語句、数字列、文字数字の列及び/又はその任意の組合せとすることができる。
テキスト入力アプリケーション110は、テキスト編集領域120の中のような表示インタフェースに表示される選択可能な文字列の各々の部分を識別する文字列変換テーブル122を生成するためにも実行される。例えば、図1に示す文字列変換テーブル122は、テキスト編集領域120から決定されるような例示的な選択可能な文字列124の一部と、選択可能な文字列の各々に対する対応する選択位置126と、を有する。選択可能な文字列の選択位置を、タッチセンサー式表示素子に関連する座標によって、画素位置、デジタル位置及びグリッド位置によって、及び/又は、選択可能な文字列のユーザ選択と相互に関連付けるために用いることができる他の任意の変換技術によって識別することができる。テキスト入力アプリケーション110は、バーチャルキーボード116と関連しているテキスト選択及び入力機能の有効化及び無効化を制御することができる。例えば、キーボードインタフェース114が表示されるとき、表示インタフェースレイアウトの選択可能な文字列を決定するとともに文字列変換テーブルを生成するために編集モードを開始することができる。
ユーザがテキスト編集領域120にテキスト118を入力すると、テキスト編集領域の現在のテキスト入力位置(例えば、本例に示すようなテキストの最後)を表すカーソル128を表示することができる。カーソルを、ユーザが選択可能にすることもでき、テキスト入力の最初又は表示されたテキストの任意の位置のようなテキスト編集領域の他の任意の位置に配置することができる。テキスト入力アプリケーション110は、テキスト編集領域120のカーソル位置を追跡及び/又は決定するためにも実行され、ユーザがカーソルを選択するとともに移動させるときのようにテキスト編集領域にカーソルを配置するための位置入力を受信することができる。
テキスト選択及び入力の実施の形態において、ユーザは、テキスト編集領域120に表示される単語又は語句のような選択可能な文字列124を選択(例えば、選定)することができ、その後、選択可能な文字列は、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置にテキスト入力としてデュープされる(例えば、入力される)。例えば、ユーザがバーチャルキーボード116へのキーボード入力によってテキスト編集領域120にテキストを入力すると、ユーザは、テキスト入力としての単語「text」の入力及び語句「text edit field」の入力のような以前に入力した単語又は語句を選択することによって時間を節約することができる。本例において、テキスト入力アプリケーション110は、テキスト編集領域120に表示された文字列124の選択(例えば、選択位置nにおける単語「text」130又は選択位置x+y+zにおける語句「text edit field」132)を受信することができる。選択したテキスト入力は、文字列の選択に応答して、追加のユーザ入力を行うことなくテキスト編集領域のカーソル128の位置でデュープされる。文字列「text」が文字列変換テーブル122の選択位置nに関連付けられ、同様に、文字列「text edit field」が文字列変換テーブルの選択位置x+y+zに関連付けられることに留意されたい。
実施の際に、選択可能な文字列の選択を開始するためのタッチセンサー式表示素子106へのタッチコンタクトを、カーソル128を移動させ又は配置するためのテキスト編集領域120のタッチコンタクトと区別することができる。例えば、ユーザは、シングルタップ又はシングルスワイプタッチコンタクト(例えば、短期間の選択又は迅速なタッチコンタクト)によりテキスト編集領域への入力のための選択可能な文字列を選択することができる。代わりに、ユーザは、長時間のタッチコンタクト(例えば、押したままの選択)によってカーソル128の移動を開始することができる。実際には、短時間は長時間と比べたもの(及びその逆)であり、短時間又は長時間の選択の長さを、具体的に及び/又はユーザが調整可能に実現することができる。
他の実施の形態において、ユーザは、電子機器102の表示素子106の任意の表示インタフェースに表示される単語又は語句のような選択可能な文字列を選定することができる。例えば、タブレット又はコンピュータ機器は、文書処理アプリケーション、データベース及びスプレッドシートアプリケーション、ウェブブラウザアプリケーション、ファイル管理アプリケーション、電子メール及び他のメッセージアプリケーションのような、並んで及び/又は重なり合って表示される複数のアプリケーションインタフェース(例えば、アプリケーションウィンドウ)を有することができる。複数の表示インタフェースからのテキスト選択及び入力の例を、図2を参照して示し及び説明する。さらに、選択した文字列を、バーチャルキーボード116へのキーボード入力(例えば、キー選択入力又はキースワイプ入力)を用いるテキスト編集領域120、文書処理データベース、スプレッドシートアプリケーション表示インタフェース、電子メール及び他のメッセージアプリケーションインタフェースのような任意のタイプのテキスト編集インタフェースへのテキスト入力として、又は、ウェブブラウザアプリケーションインタフェースにテキストを入力するために入力することができる。
例えば、ユーザは、ウェブサイトの記事を読み出し、記事の特定の単語又は語句の更なる発生を探索することを所望することができる。ユーザは、ウェブサイトすなわちウェブブラウザインタフェースのテキスト検索機能を始動し、その後、記事の表示した部分に示す単語又は語句(例えば、文字列)をタッチ選択することができる。テキスト入力アプリケーション110は、ウェブサイトインタフェースの記事に表示された単語又は語句の選択を受信し、その後、追加のユーザ入力を行うことなくテキスト検索機能のテキスト検索領域のカーソル位置のテキスト入力として文字列を入力する。
実施の際に、電子機器102は、一つ以上の表示インタフェースに表示されたテキストを分析又は認識することによって、選択可能な文字列を決定するために実行される文字認識アプリケーション134を有する。例えば、複数のアプリケーションインタフェースを並んで及び/又は重ねて表示することができる。第1の表示インタフェースは、第2の表示インタフェースに部分的に重なることができ、この場合、第1の表示インタフェースによって隠されていない第2の表示インタフェースの文字列は、選択可能な文字列として決定される。種々の実現において、任意の適用可能な光学式文字認識(OCR)技術を、表示インタフェースに表示されたテキストから選択可能な文字列を決定するために利用することができる。例えば、ディスプレイのスキャンした画像(例えば、スクリーンショット)を、電子機器の表示素子全体に亘って見える選択可能な文字列を見つけるためにOCRを用いて分析することができる。
図2は、ここで説明した実施の形態による複数の表示インタフェースからのテキスト選択及び入力の例200を示す。本例において、複数の表示インタフェースは、図1を参照して説明した電子機器102のタッチセンサー式表示素子106、又はタブレット若しくはコンピュータ機器のディスプレイのような単一の表示素子202に表示して示される。例えば、ウェブサイトインタフェース204、メッセージインタフェース206及びテキスト編集領域208(例えば、表示インタフェース)は全て、バーチャルキーボード212を含むキーボードインタフェース210に近接する表示素子202に表示される。テキスト入力アプリケーション110(図1)は、例えば、表示されたテキストの全てをスキャンするための文字認識アプリケーション134を利用することによって、複数の表示インタフェースに表示されたテキストから選択可能な文字列を決定するために実行される。選択可能な文字列を、例えば、本例の種々の表示インタフェースのいずれかにおいて表示素子202に見える文字、数字、記号、単語、語句、数字列、文字数字の列及び/又はその任意の組合せとすることができる。
一実施の形態において、バーチャルキーボード212を含むキーボードインタフェース210が他の表示インタフェースと共に表示される場合、選択可能な文字列を、表示インタフェースの二つ以上に表示されるテキストから決定する。代わりに、選択可能な文字列を、アクティブフォーカス表示インタフェース(active focus display interface)のみに表示されるテキストから決定する。図示したように、メッセージインタフェース206は、アクティブであるとともにウェブサイトインタフェース204の上に表示され、したがって、別の実施の形態は、メッセージインタフェース206から選択可能な文字列を決定するだけである。テキスト入力アプリケーション110は、(実施の形態に応じて)表示インタフェースの一つ以上から決定されるような選択可能な文字列及び本例200の選択可能な文字列の各々に対する表示素子202の対応する選択位置を有する文字列変換テーブル122を生成することができる。
テキスト選択及び入力の本例において、ユーザは、種々の表示インタフェースに表示される単語及び/又は語句のような選択可能な文字列を選択することができ、その後、選択可能な文字列は、追加のユーザ入力を行うことなくテキスト編集領域208のカーソル位置にテキスト入力としてデュープされる。214に示すように、キーボード入力(例えば、キー選択入力又はキースワイプ入力)を用いるようなバーチャルキーボード212のテキスト編集領域208にユーザがテキストを入力する際に現在のテキスト入力位置を表すカーソル216が表示される。例えば、ユーザは、標準スタイルのキー入力タイピング、スワイプスタイルのタイピング又はバーチャルキーボードのキーを用いる他のタイピングスタイルによってテキストを入力するためにバーチャルキーボード212を用いることができる。バーチャルキーボードベーステキスト入力に加えて、ユーザは、テキスト編集領域へのテキスト入力を作成するために種々の表示インタフェースから文字列を選択することができる。
例えば、テキスト入力アプリケーション110は、バーチャルキーボードを用いて「You should drink」のテキスト入力のキー入力を受信し、その後、ウェブサイトインタフェース204の表示素子202のタッチコンタクト218のような文字列「Green Tea」の選択を受信することができる。その後、テキスト入力アプリケーション110は、タッチコンタクト218の選択位置に基づいて、選択可能な文字列を文字列変換テーブル122から決定し、テキスト編集領域のカーソル位置に文字列を文字入力としてデュープする(duplicate)ことができる。さらに、220で示すように、ユーザは、バーチャルキーボード212を用いて追加の単語「if you want to be」を手入力し、表示素子202のタッチコンタクト222として文字列「healthier」をメッセージインタフェース206から選択することができ、選択可能な文字列は、メッセージ応答を構成するためのテキスト編集領域208のテキスト入力としてデュープされる。さらに、224で示すように、ユーザは、バーチャルキーボード212を用いて追加のテキスト「−it has」を手入力し、その後、表示素子202のタッチコンタクト226として文字列「potent antioxidants」をウェブサイトインタフェース204から選択することができ、選択可能な文字列は、テキスト編集領域の他のテキスト入力としてデュープされる。したがって、テキスト選択及び入力の実現は、テキストを入力するのに要する時間を削減するとともにスペルミスを減少させる。
実現の際に、選択可能な文字列の選択を開始するための表示素子202へのタッチコンタクトを、後にメッセージインタフェース206、キーボードインタフェース210及びテキスト編集領域208の上に表示されるウェブサイトインタフェース204へのフォーカスの切替のようなある表示インタフェースから他の表示インタフェースへの表示インタフェースフォーカス切替を行うためのタッチセンサー式表示素子への異なるスタイルのタッチコンタクトから区別することができる。実現の際に、ユーザは、シングルタップ又はシングルスワイプタッチコンタクト(例えば、短時間の選択又は迅速なタッチコンタクト)によって、テキスト編集領域への入力のための選択可能な文字列を選択することができる。代わりに、ユーザは、ダブルタップタッチコンタクト(例えば、連続的な2回の迅速なタッチコンタクト)によって異なる表示インタフェースへの表示インタフェースフォーカス切替を開始することができ、又は、長時間のタッチコンタクト(例えば、押したままの選択)によってアクティブな表示インタフェース(例えば、メッセージインタフェース206)内のカーソル配置及び制御を指示することができる。実際には、実際には、短時間は長時間と比べたもの(及びその逆)であり、短時間又は長時間の選択の長さを、具体的に及び/又はユーザが調整可能に実現することができる。
例示的な方法300を、テキスト選択及び入力の一つ以上の実施の形態に従って図3を参照して説明する。一般的に、ここで説明するサービス、機能、方法、手順、構成要素及びモジュールを、ソフトウェア、ファームウェア、ハードウェア(例えば、固定論理回路)、マニュアル処理又はその任意の組合せを用いて実現することができる。ソフトウェアの実行は、コンピュータプロセッサによって実行されるときに特定のタスクを実行するプログラムコードを表す。例示の方法を、ソフトウェア、アプリケーション、ルーチン、プログラム、オブジェクト、構成要素、データ構造、手順、モジュール、機能等を含むことができるコンピュータ実行可能な命令に関連して一般的に説明することができる。プログラムコードを、コンピュータプロセッサに近い及び/又はコンピュータプロセッサから遠く離れた一つ以上のコンピュータ読出し可能な記憶媒体装置に格納することができる。方法を、複数のコンピュータ機器によって分散コンピューティング環境で実行することもできる。さらに、ここで説明する形態は、プラットフォームから独立し、種々のプロセッサを有する種々の計算プラットフォームで実現させることができる。
図3は、テキスト選択及び入力の(一つ以上の)例示の方法300を示す。方法のブロックを説明する順序は、制限と解釈されるのを意図するのではなく、任意の数又は組合せの説明される方法のブロックを、テキスト選択及び入力の方法の実施の形態を実現するために任意の順序で実行することができる。
ブロック302において、テキスト編集領域にテキストを入力するためのユーザインタラクション用のバーチャルキーボードを含むキーボードインタフェースを表示する。例えば、キーボードインタフェース114(図1)が電子機器102のタッチセンサー式表示素子106に表示され、キーボードインタフェースは、テキスト編集領域120にテキスト118を入力するためのユーザインタラクション用に表示されるバーチャルキーボード116を含む。実施の形態において、テキスト編集領域120は、キーボードインタフェース114に近接して表示される表示インタフェースの一例である。他の例において、キーボードインタフェース210(図2)は、バーチャルキーボード212を含み、テキスト編集領域208がメッセージインタフェース206の一部である間に表示素子202に表示される。さらに、ウェブサイトインタフェース204、メッセージインタフェース206及びテキスト編集領域208(例えば、表示インタフェース)は全て、キーボードインタフェース210に近接する表示素子202に表示される。
ブロック304において、一つ以上のディスプレイインタフェースに表示される選択可能な文字列を決定する。例えば、電子機器102のテキスト入力アプリケーション110は、テキスト編集領域120(例えば、表示インタフェース)に表示される選択可能な文字列を決定する。実現の際に、選択可能な文字列を、電子機器102の文字認識アプリケーション134の利用のような表示インタフェースの光学式文字認識によって決定する。選択可能な文字列を、文字、数字、記号、単語、語句、数字列、文字数字の列及び/又はその任意の組合せとすることができる。他の例において、テキスト入力アプリケーション110は、例えば、ウェブインタフェース204、メッセージインタフェース206及びテキスト編集領域208(例えば、表示インタフェース)から可視のテキストの全てをスキャンするための文字認識アプリケーション134を利用することによって、複数の表示インタフェースに表示される選択可能な文字列を決定する。第1の表示インタフェースは、第2の表示インタフェースに少なくとも部分的に重なることがあり、この場合、第1の表示インタフェースによって覆い隠されていない第2の表示インタフェースの文字列を、第2の表示インタフェースに表示された選択可能な文字列として決定する。
ブロック306において、表示された選択可能な文字列の各々の位置を識別する文字列変換テーブルを生成する。例えば、電子機器102のテキスト入力アプリケーション110は、テキスト編集領域120(例えば、表示インタフェース)から決定されるような選択可能な文字列124及び選択可能な文字列の各々に対する表示素子106の対応する選択位置126を含む文字列変換テーブル122を生成する。他の例において、テキスト入力アプリケーション110は、選択可能な文字列並びに全てが表示素子202に表示されるウェブサイトインタフェース204、メッセージインタフェース206及びテキスト編集領域208から決定されるような対応する選択位置を有する選択可能な文字列変換テーブル122を生成する。
ブロック308において、カーソルをテキスト編集領域に配置するための位置入力を受信する。例えば、電子機器102のテキスト編集アプリケーション110は、ユーザが編集のためにカーソルを選択し及び移動させる等のときに、カーソル128をテキスト編集領域120に配置するための位置入力を受信する。テキスト編集アプリケーション(例えば、メッセージング、データベース、文書処理等)を最初に起動するとき、テキスト編集領域は、最初の位置のカーソルを除いて空白である。その後、テキストが入力されると、ユーザは、入力したテキスト内にカーソルを再配置することができる。カーソル128を選択することができ、カーソル128を、テキスト入力の最後、テキスト入力の最初又は表示されたテキストのどこかのようなテキスト編集領域120の任意の位置に配置することができる。代わりに、カーソルを、ユーザがテキスト編集領域にテキストを入力する際のアプリケーションデフォルトによってテキスト入力の最後に保持することができる。
ブロック310において、選択タイプ及びタッチセンサー式表示素子の選択位置の選択を受信する。例えば、電子機器102のタッチ検出システム104は、シングルタップタッチコンタクト、シングルスワイプコンタクト、ダブルタップタッチコンタクト又は長時間のタッチコンタクトのような異なるスタイルのタッチコンタクトを受信することができるタッチセンサー式表示素子106を有する。実施の形態において、選択可能な文字列の選定を開始するための表示素子202へのタッチコンタクトを、ある表示インタフェースから他の表示インタフェースに表示インタフェースのフォーカスを切り替えるための又はアクティブな表示インタフェース内のカーソル配置及び制御を指示するためのタッチセンサー式表示素子への異なるスタイルのタッチコンタクトから区別することができる。
ブロック310で選択を受信する前にステップ306で文字列変換テーブルを生成させる代案として、文字列変換テーブルを、ブロック301での選択の受信後に生成することができる。そのような動的に生成された文字列テーブルは、ブロック310からの選択位置を選択可能な文字列に変換する一つの入力のみを有することができる。
ブロック312において、選択の選択位置がバーチャルキーボードインタフェース内にあるか否かについての決定を行う。例えば、ユーザは、キーボードインタフェース114に表示されたバーチャルキーボード116のキーボード入力(例えば、キー選択入力又はキースワイプ入力)によってテキストをテキスト編集領域120に入力することができる。他の例において、ユーザは、キーボードインタフェース210に表示されたバーチャルキーボード212のキーボード入力(例えば、キー選択入力又はキースワイプ入力)によってテキストをテキスト208に入力することができる。(例えば、ブロック310で受信した)選択の選択位置がバーチャルキーボードインタフェース内にある(すなわち、ブロック312からの「Yes」)場合、ブロック314において、バーチャルキーボード入力を、現在のカーソル位置でテキスト編集領域又はアプリケーション表示インタフェースに入力する。その後、方法は、テキスト編集領域にカーソルを配置するための位置入力を受信するブロック308で継続し、又は、カーソルは、アプリケーションデフォルトによりテキスト入力の終端にあるままにすることができる。
(例えば、ブロック310で受信した)選択の選択位置がバーチャルキーボードインタフェース内にない(すなわち、ブロック312からの「No」)場合、ブロック316において、タッチセンサー式表示素子での選択の選択タイプについての決定を行う。例えば、ユーザは、タッチセンサー式表示素子106へのシングルタップ又はシングルスワイプタッチコンタクト(例えば、短時間の選択又は迅速なタッチコンタクト)によってテキスト編集領域120への入力のための選択可能な文字列を選定することができる。代わりに、ユーザは、長時間のタッチコンタクト(例えば、押したままの選択)によってカーソル128の移動を開始することができる。他の例において、ユーザは、表示素子202へのシングルタップ又はシングルスワイプタッチコンタクト(例えば、迅速なタッチコンタクト)によってテキスト編集領域208への入力のための選択可能な文字列を選定することができる。代わりに、ユーザは、ダブルタップタッチコンタクト(例えば、連続的な2回の迅速なタッチコンタクト)によって異なる表示インタフェースへの表示インタフェースフォーカス切替を開始することができる。更に別の見方として、ユーザは、長時間のタッチコンタクト(例えば、押したままの選択)によってアクティブな表示インタフェース(例えば、メッセージインタフェース206)内のカーソル配置及び制御を指示することができる。
選択タイプが、ブロック316で決定されるような長時間のタッチコンタクトである場合、方法は、カーソルをテキスト編集領域に配置(又は再配置)するためのブロック308に戻り、又は、カーソルは、アプリケーションデフォルトによりテキスト入力の終端にあるままにすることができる。例えば、電子機器102のテキスト入力アプリケーション110は、ユーザが編集のためにカーソルを選択し及び移動させるときのように、カーソル128をテキスト編集領域120に配置するための位置入力としての長時間のタッチコンタクトを受信する。選択タイプが、ブロック316で決定されるようなダブルタップタッチコンタクトである場合、ブロック318において、第1の表示インタフェースから第2の表示インタフェースへの表示インタフェースフォーカス切替を開始する。例えば、テキスト入力アプリケーション110は、後にメッセージインタフェース206、キーボードインタフェース210及びテキスト編集領域208の上に表示されるウェブサイトインタフェース204へのフォーカス切替のようなダブルタップタッチコンタクトに基づく第1の表示インタフェースから第2の表示インタフェースへの表示インタフェースフォーカス切替を開始する。その後、方法は、終了し、又は、テキスト編集領域にテキストを入力するためのテキストインタラクション用のバーチャルキーボードを含むキーボードインタフェースを表示するブロック302で継続する。
選択タイプが、ブロック316で決定されるようなシングルタップタッチコンタクトである場合、(例えば、ブロック310で受信した)選択は、表示インタフェースで表示される選択可能な文字列である。例えば、ユーザが、以前に入力した単語又は語句をテキスト編集領域から選択するとき、電子機器102のテキスト入力アプリケーション110は、単語「text」又は語句「text edit field」のようなテキスト編集領域120(例えば、表示インタフェース)に表示される文字列124の選択を受信する。他の例において、ユーザは、テキスト編集領域208に入力されるテキスト入力として、文字列「Green Tea」をウェブサイトインタフェース204から選択し、文字列「healthier」をメッセージインタフェース206から選択し、文字列「potent antoxidants」をウェブサイトインタフェース204から選択することができる。
ブロック320において、選定した選択可能な文字列を、タッチセンサー式表示素子の選択位置に基づいて文字列変換テーブルから決定する。例えば、電子機器102のテキスト入力アプリケーション110は、表示素子106(図1)又は表示素子202(図2)の対応する選択位置126に基づいて、選択可能な文字列124を文字列変換テーブル122から決定する。テキスト入力アプリケーション110は、タッチ入力データ108をタッチ検出システム104から受信し、この場合、タッチ入力データは、選定された選択可能な文字列の選択位置と相互に関連があり、テキスト入力アプリケーションは、選択可能な文字列を選択位置から決定する。
ブロック322において、選定された選択可能な文字列を、テキスト編集領域のカーソル位置におけるテキスト入力としてデュープする。例えば、電子機器102のテキスト入力アプリケーション110は、選択可能な文字列(例えば、単語「text」又は語句「text edit field」)をテキスト入力領域120のカーソル128の位置におけるテキスト入力としてデュープする。テキスト入力は、文字列の選択に応答して、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置でデュープされる。他の例において、テキスト入力アプリケーション110は、テキスト編集領域208のテキスト入力として、選定した選択可能な文字列(例えば、ウェブサイトインタフェース204からの文字列「Green Tea」、メッセージインタフェース206からの文字列「healthier」及びウェブサイトインタフェース204からの文字列「potent antoxidants」)をデュープする。その後、方法は、カーソルをテキスト編集領域に配置(又は再配置)するための位置入力を受信するブロック308で継続し、又は、カーソルは、アプリケーションデフォルトによりテキスト入力の終端にあるままにすることができる。
シングルタップ又はシングルスワイプタッチコンタクトを、テキスト選択及び入力の命令を行うタッチスタイルの例として説明したが、テキスト選択及び入力を開始するために他のタッチスタイルを用いることができる。また、タッチスタイルの三つの特定例(長時間、シングルタップ又はシングルスワイプ、及びダブルタップ)を、三つの関連の応答(例えば、カーソル位置決め、文字列選択及びフォーカス切替)とともに説明したが、タッチスタイルを、他の多数のやり方で応答に整合させることができる。
図4は、以前の図1〜3のいずれかを参照しながら説明した任意の機器として実現することができる例示の電子機器400の種々の構成要素を示す。電子機器を、図1を参照して説明した電子機器102のような消費者、コンピュータ、携帯、ユーザ、通信、電話、ナビゲーション、ゲーム、メッセージ、ウェブ閲覧、ページング及び/又は他のタイプの電子機器の任意の形態の固定又はモバイル機器の任意の一つ又は組合せとして実現することができる。
電子機器400は、受信データ及び送信データ並びにローカル入力データ(locally entered data)のような機器データ404の有線及び/又は無線通信を可能にする通信用トランシーバ402を有する。例示の通信用トランシーバは、種々のIEEE802.15(Bluetooth(登録商標))に準拠しているワイヤレスパーソナルエリアネットワーク(WPAN)の無線機、種々のIEEE802.11(WiFi(登録商標))に準拠しているワイヤレスローカルエリアネットワーク(WLAN)の無線機、携帯電話用のワイヤレスワイドエリアネットワーク(WWAN、3GPPに準拠)の無線機、種々のIEEE802.15(WiMAX(登録商標))規格に準拠したワイヤレスメトロポリタンエリアネットワーク(WMAN)の無線機及びワイヤードローカルエリアネットワーク(LAN)のイーサネット(登録商標)トランシーバを含む。
電子機器400は、ユーザが選択可能な入力、メッセージ、音楽、テレビジョンコンテンツ、記録映像コンテンツ、及び、任意のコンテンツ及び/又はデータ源から受信した任意のタイプのオーディオ、ビデオ及び/又は画像データのような任意のタイプのデータ、メディアコンテンツ及び/又は入力を受信することができる一つ以上のデータ入力ポート406を有することもできる。データ入力ポート406は、USBポート、同軸ケーブルポート、及び、フラッシュメモリ、DVD、CD等のための(内部コネクタを含む)他のシリアル又はパラレルコネクタを有することができる。これらのデータ入力ポートを、電子機器をキーボード、マイクロホン若しくはカメラのような素子、周辺機器又は付属品に結合するのに用いることができる。
電子機器400は、機器の動作を制御するコンピュータ実行可能な命令を処理する一つ以上のプロセッサ408(例えば、マイクロプロセッサ、コントローラ等のいずれか)又は(例えば、SoCで実現される)プロセッサ及びメモリシステムを有する。代わりに又はさらに、電子機器を、一般的に412で特定される処理及び制御回路に関連して実現されるソフトウェア、ハードウェア、ファームウェア又は固定論理回路のいずれか一つ又は組合せによって実現することができる。電子機器は、機器に統合されたタッチセンサー式インタフェースの選択可能なタッチ入力としてユーザによって開始されるときのようにタッチコンタクトを検出及び/又は検知するために実現されるタッチ検出システム414を有することもできる。図示しないが、電子機器は、機器内で種々の素子を結合するシステムバス又はデータ転送システムを有することができる。システムバスは、メモリバス又はメモリコントローラ、周辺機器用バス、ユニバーサルシリアルバス、及び/又は、種々のバスアーキテクチャのいずれかを利用するプロセッサ又はローカルバスのような異なるバス構造のいずれか一つ又は組合せを有することができる。
電子機器400は、データ格納を可能にする一つ以上の記憶装置416を有し、その例は、ランダムアクセスメモリ(RAM)、不揮発性メモリ(例えば、読出し専用メモリ(ROM)、フラッシュメモリ、EPROM,EEPROM等)及びディスク記憶装置を含む。記憶装置416は、機器データ404、他のタイプの情報及び/又はデータ並びに種々の機器アプリケーション418(例えば、ソフトウェアアプリケーション)を格納するデータ格納機構を提供する。例えば、オペレーティングシステム420を、記憶装置によってソフトウェア命令として維持するとともにプロセッサ408によって実行することができる。記憶装置416は、電子機器102のタッチ入力データ108及び/又は文字列変換テーブル122も格納する。
機器アプリケーションは、制御アプリケーション、ソフトウェアアプリケーション、信号処理及び制御モジュール、特定の機器に備わるコード、特定の機器に対するハードウェア抽象化層等のような機器マネージャも有することができる。実施の形態において、電子機器は、テキスト選択及び入力を実現するためのテキスト入力アプリケーション410及び/又は文字認識アプリケーション428を有する。テキスト入力アプリケーション410及び文字認識アプリケーション428の例示の実現を、テキスト入力アプリケーション110及び文字認識アプリケーション134(図1)を参照しながら説明する。
電子機器400は、オーディオデータを処理し及び又はオーディオ及びビデオデータをオーディオシステム424及び/又は表示システム426に送るオーディオ及び/又はビデオ処理システム422も有する。オーディオシステム及び/又はビデオシステムは、オーディオ、ビデオ、表示及び/又は画像データを処理し、表示し及び/又はそれ以外の表現をする任意の機器を含むことができる。表示データ及びオーディオ信号を、メディアデータポート430のようなRF(無線周波数)リンク、Sビデオリンク、HDMI(登録商標)(高精度マルチメディアインタフェース)、コンポジットビデオリンク、コンポーネントビデオリンク、DVI(デジタルビデオインタフェース)、アナログオーディオ接続又は他の同様な通信リンクを介してオーディオ素子及び/又は表示素子に送信することができる。実現に際し、オーディオシステム及び/又は表示システムは、電子機器の外部素子である。代わりに又はさらに、表示システムを、統合タッチゼスチャーインタフェースの一部のような例示の電子機器の統合素子とすることができる。
上述したように、テキスト編集領域又はアプリケーション若しくは表示インタフェースに表示される単語又は語句のような選択可能な文字列を選択することができ、その後、選択可能な文字列は、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置にテキスト入力としてデュープされる。ユーザがバーチャルキーボードのテキスト編集領域にテキストを入力すると、ユーザは、その後にテキスト入力として入力される以前に入力した単語又は語句を選択することによって時間を節約することができる。テキスト入力は、選択した語句の選択に応答して、追加のユーザ入力を行うことなくテキスト編集領域のカーソル位置でデュープされる。テキスト選択及び入力の実施の形態を、特徴及び/又は方法に特有の言語で説明したが、添付した特許請求の範囲の対象は、上述した特定の特徴又は方法に必ずしも限定されない。むしろ、特定の特徴及び方法を、テキスト選択及び入力の例示の実現として開示する。

Claims (20)

  1. キーボード入力を用いてテキスト編集領域にテキストを入力するためのユーザインタラクション用に構成したバーチャルキーボードを含むキーボードインタフェースを表示することと、
    前記キーボードインタフェースに近接して配置された少なくとも一つの表示インタフェースに表示された複数の選択可能な文字列を決定することであって、前記少なくとも一つの表示インタフェースは、前記キーボードインタフェースの前記バーチャルキーボード及び前記テキスト編集領域と共に表示され、前記複数の選択可能な文字列を決定することは、前記少なくとも一つの表示インタフェースに表示されたテキストを分析又は認識することを備えることと、
    前記少なくとも一つの表示インタフェースに表示される複数の選択可能な文字列の一つの選択可能な文字列の選択を受信することと、
    前記一つの選択可能な文字列の選択の受信に応答して、追加のユーザ入力を行うことなく前記テキスト編集領域のカーソル位置にテキスト入力として前記一つの選択可能な文字列をデュープすることと、
    を備える方法。
  2. 前記少なくとも一つの表示インタフェースに表示される複数の選択可能な文字列の各選択可能な文字列の位置を識別する文字列変換テーブルを生成することと、
    前記キーボードインタフェース及び前記少なくとも一つの表示インタフェースを表示する表示素子の選択位置に基づいて、前記文字列変換テーブルから前記一つの選択可能な文字列を決定することと、
    を更に備える請求項1に記載の方法。
  3. 前記一つの選択可能な文字列は、文字、数字、記号、単語、語句、数字列又は文字数字の列の一つを備え、
    前記一つの選択可能な文字列を、前記表示インタフェースの光学式文字認識によって決定する請求項1又は2に記載の方法。
  4. 前記キーボードインタフェース及び前記少なくとも一つの表示インタフェースを表示する表示素子で検出される追加の選択を受信することと、
    前記追加の選択を長時間の選択として受信したことの決定に応答して、前記追加の選択の入力位置に前記テキスト編集領域のカーソルを配置することと、
    前記追加の選択をダブルタップ入力として受信したことの決定に応答して、前記少なくとも一つの表示インタフェースから他の表示インタフェースへの表示インタフェースフォーカス切替を開始することと、
    を更に備える請求項1〜3のいずれか一項に記載の方法。
  5. 前記テキスト編集領域に表示された追加の選択可能な文字列の他の選択を受信すること
    記追加の選択可能な文字列の他の選択の受信に応答して、追加のユーザ入力を行うことなく前記テキスト編集領域のカーソル位置に第2のテキスト入力として前記追加の選択可能な文字列をデュープすることと、
    を更に備える請求項1〜4のいずれか一項に記載の方法。
  6. 前記一つの選択可能な文字列は、語句であり、
    前記語句は、前記選択に基づいて、前記追加のユーザ入力を行うことなく前記テキスト編集領域の前記カーソル位置でのテキスト入力としてデュープされる請求項1〜5のいずれか一項に記載の方法。
  7. 前記少なくとも一つの表示インタフェースは、ウェブブラウザ、文書処理アプリケーション、データベースアプリケーション、スプレッドシートアプリケーション、ファイル管理アプリケーション、電子メールアプリケーション又はメッセージアプリケーションの少なくとも一つであり、
    前記一つの選択可能な文字列は、ェブブラウザ、文書処理アプリケーション、データベースアプリケーション、スプレッドシートアプリケーション、ファイル管理アプリケーション、電子メールアプリケーション又はメッセージアプリケーションの少なくとも一つに表示され、
    前記一つの選択可能な文字列は、前記テキスト編集領域の前記カーソル位置でのテキスト入力としてデュープされる請求項1〜6のいずれか一項に記載の方法。
  8. 前記選択を受信することは、タッチコンタクトのタッチスタイルデータを受信することを備え、前記方法は、
    前記タッチスタイルデータが第1のスタイルのタッチコンタクトに対応することの決定に応答して追加のユーザ入力を行うことなく前記テキスト編集領域の前記カーソル位置での前記テキスト入力として前記一つの選択可能な文字列をデュープすることと、
    前記タッチスタイルデータ第2のスタイルのタッチコンタクトに対応することの決定に応答して、第1の表示インタフェースから第2の表示インタフェースへの表示インタフェースフォーカス切替を開始することと、
    を更に備える請求項1〜7のいずれか一項に記載の方法。
  9. キーボードインタフェースにバーチャルキーボードを表示するように構成された表示素子と、
    前記表示素子のタッチセンサー式インタフェースへのタッチコンタクトを検出するように構成されたタッチ検出システムと、
    テキスト入力アプリケーションを実行するメモリ及びプロセッサシステムと、
    を備え、前記テキスト入力アプリケーションは、
    前記表示素子の少なくとも一つの表示インタフェースに表示される複数の選択可能な文字列を決定することであって、前記複数の選択可能な文字列を決定することは、前記少なくとも一つの表示インタフェースに表示されたテキストを分析又は認識することを備え、
    前記複数の選択可能な文字列の決定に応答して、前記少なくとも一つの表示インタフェースに表示される各選択可能な文字列の位置を識別する文字列変換テーブルを生成することであって、各選択可能な文字列の位置は、前記表示素子の座標によって識別され、
    前記タッチコンタクトの位置データを受信し、
    前記タッチコンタクトの位置データの受信に応答して、前記位置データと相互に関連がある選定した一つの選択可能な文字列を識別するために前記文字列変換テーブルを参照し、
    前記文字列変換テーブルの参照に応答して、テキスト編集領域のカーソル位置でのテキスト入力として前記選定した一つの選択可能な文字列をデュープするように構成された電子機器。
  10. 前記複数の選択可能な文字列はそれぞれ、文字、数字、記号、単語、語句、数字列又は文字数字の列の一つを備える請求項9に記載の電子機器。
  11. 前記メモリ及びプロセッサシステムは、前記少なくとも一つの表示インタフェースに表示される前記複数の選択可能な文字列を決定するように構成された文字認識アプリケーションを実行するように構成される請求項9又は10に記載の電子機器。
  12. 前記テキスト入力アプリケーションは、前記タッチコンタクトのタッチスタイルデータを受信し、かつ、
    前記タッチコンタクトのタッチスタイルデータが第1のスタイルのタッチコンタクトに対応することの決定に応答して、前記テキスト編集領域の前記カーソル位置での前記テキスト入力として前記選定した一つの選択可能な文字列をデュープすることと、
    前記タッチコンタクトのタッチスタイルデータが第2のスタイルのタッチコンタクトに対応することの決定に応答して、前記タッチコンタクト入力位置に前記テキスト編集領域のカーソルを配置することと、
    前記タッチコンタクトのタッチスタイルデータが第3のスタイルのタッチコンタクトに対応することの決定に応答して、前記少なくとも一つの表示インタフェースから他の表示インタフェースへの表示インタフェースフォーカス切替を開始することと、を行うように更に構成される請求項9〜11のいずれか一項に記載の電子機器。
  13. 前記少なくとも一つの表示インタフェースは、前記テキスト編集領域であり、
    前記選定した一つの選択可能な文字列は、前記テキスト編集領域に表示され、
    前記選定した一つの選択可能な文字列は、前記テキスト編集領域の前記カーソル位置でのテキスト入力としてデュープされる請求項9〜12のいずれか一項に記載の電子機器。
  14. 前記選定した一つの選択可能な文字列は、語句であり、
    前記語句は、前記タッチコンタクトに基づいて、追加のユーザ入力を行うことなく前記テキスト編集領域の前記カーソル位置でのテキスト入力としてデュープされる請求項9〜13のいずれか一項に記載の電子機器。
  15. 前記少なくとも一つの表示インタフェースは、ウェブブラウザ、文書処理アプリケーション、データベースアプリケーション、スプレッドシートアプリケーション、ファイル管理アプリケーション、電子メールアプリケーション又はメッセージアプリケーションの少なくとも一つであり、
    一つの選択可能な文字列は、ェブブラウザ、文書処理アプリケーション、データベースアプリケーション、スプレッドシートアプリケーション、ファイル管理アプリケーション、電子メールアプリケーション又はメッセージアプリケーションの少なくとも一つに表示され、
    前記選定した一つの選択可能な文字列は、前記テキスト編集領域の前記カーソル位置でのテキスト入力としてデュープされる請求項9〜14のいずれか一項に記載の電子機器。
  16. テキスト編集領域にテキストを入力するためのユーザインタラクション用に構成したバーチャルキーボードを含むキーボードインタフェースを表示することであって、前記テキスト編集領域は、前記キーボードインタフェースに近接して表示されることと、
    前記テキスト編集領域のカーソル位置にカーソルを配置するための位置入力を受信することと、
    前記テキスト編集領域のカーソル位置にカーソルを配置するための位置入力の受信に応答して、前記テキスト編集領域に表示される一つの文字列の選択を受信することと、
    前記一つの文字列の選択の受信に応答して、追加のユーザ入力を行うことなく前記テキスト編集領域のカーソル位置にテキスト入力として一つの文字列をデュープすることと、
    を備える方法。
  17. 前記一つの文字列は、前記テキスト編集領域に表示される語句であり、
    前記語句は、前記テキスト編集領域の前記カーソル位置に前記テキスト入力としてデュープされる請求項16に記載の方法。
  18. 前記一つの文字列はそれぞれ、文字、数字、記号、単語、語句、数字列又は文字数字の列の一つを備える請求項16又は17に記載の方法。
  19. 前記テキスト編集領域を含む複数の表示インタフェースに表示される複数の選択可能な文字列を決定することと、
    前記複数の選択可能な文字列の決定に応答して、前記複数の表示インタフェースに表示される前記複数の選択可能な文字列の各選択可能な文字列の位置を識別する文字列変換テーブルを生成することと、
    を更に備える請求項16〜18のいずれか一項に記載の方法。
  20. 複数の表示インタフェースの第1の表示インタフェースは、前記複数の表示インタフェースの第2の表示インタフェースに少なくとも部分的に重なり、
    前記第2の表示インタフェースの複数の文字列が前記第1の表示インタフェースによって隠されていないという決定に応答して、前記第2の表示インタフェースの複数の文字列が、前記複数の表示インタフェースに表示される複数の選択可能な文字列として含まれることを決定することを更に備える請求項16〜19のいずれか一項に記載の方法。
JP2015503726A 2012-04-07 2012-04-07 テキスト選択及び入力 Active JP6055961B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2012/073618 WO2013149403A1 (en) 2012-04-07 2012-04-07 Text select and enter

Publications (2)

Publication Number Publication Date
JP2015518604A JP2015518604A (ja) 2015-07-02
JP6055961B2 true JP6055961B2 (ja) 2017-01-11

Family

ID=49299939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015503726A Active JP6055961B2 (ja) 2012-04-07 2012-04-07 テキスト選択及び入力

Country Status (7)

Country Link
US (1) US20150074578A1 (ja)
EP (1) EP2834725A4 (ja)
JP (1) JP6055961B2 (ja)
KR (1) KR101673068B1 (ja)
CN (1) CN104541239A (ja)
AU (1) AU2012376152A1 (ja)
WO (1) WO2013149403A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6071107B2 (ja) * 2012-06-14 2017-02-01 裕行 池田 携帯端末
US11086410B2 (en) * 2012-12-24 2021-08-10 Nokia Technologies Oy Apparatus for text entry and associated methods
US9785259B2 (en) 2013-03-11 2017-10-10 Barnes & Noble College Booksellers, Llc Stylus-based slider functionality for UI control of computing device
US9946365B2 (en) 2013-03-11 2018-04-17 Barnes & Noble College Booksellers, Llc Stylus-based pressure-sensitive area for UI control of computing device
US9766723B2 (en) 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
KR102091235B1 (ko) * 2013-04-10 2020-03-18 삼성전자주식회사 휴대 단말기에서 메시지를 편집하는 장치 및 방법
US10719224B1 (en) * 2013-04-29 2020-07-21 David Graham Boyers Methods and graphical user interfaces for pointing and editing on computing devices with touch-sensitive displays
US20160147405A1 (en) * 2013-04-30 2016-05-26 Sony Corporation Press and drop text input
US10534447B2 (en) * 2014-09-01 2020-01-14 Yinbo Li Multi-surface controller
US10444849B2 (en) 2014-09-01 2019-10-15 Yinbo Li Multi-surface controller
US10534502B1 (en) * 2015-02-18 2020-01-14 David Graham Boyers Methods and graphical user interfaces for positioning the cursor and selecting text on computing devices with touch-sensitive displays
US10019425B2 (en) 2015-04-03 2018-07-10 Qualcomm Incorporated Enhancement to text selection controls
US20160300573A1 (en) * 2015-04-08 2016-10-13 Google Inc. Mapping input to form fields
US9967467B2 (en) * 2015-05-29 2018-05-08 Oath Inc. Image capture with display context
CN105094671A (zh) * 2015-07-17 2015-11-25 百度在线网络技术(北京)有限公司 一种用于对输入区域的内容进行编辑的方法和装置
US10755480B2 (en) * 2017-05-19 2020-08-25 Ptc Inc. Displaying content in an augmented reality system
USD828337S1 (en) 2017-06-20 2018-09-11 Yinbo Li Multi-surface controller
CN109543174B (zh) * 2017-09-21 2023-05-09 广州腾讯科技有限公司 文本选择方法、装置、计算机可读存储介质和计算机设备
US10740568B2 (en) * 2018-01-24 2020-08-11 Servicenow, Inc. Contextual communication and service interface
US10895979B1 (en) 2018-02-16 2021-01-19 David Graham Boyers Methods and user interfaces for positioning a selection, selecting, and editing, on a computing device running under a touch-based operating system, using gestures on a touchpad device
US11320983B1 (en) * 2018-04-25 2022-05-03 David Graham Boyers Methods and graphical user interfaces for positioning a selection, selecting, and editing, on a computing device running applications under a touch-based operating system
CN110018762A (zh) * 2019-03-15 2019-07-16 维沃移动通信有限公司 一种文本复制方法及移动终端
JP7332518B2 (ja) * 2020-03-30 2023-08-23 本田技研工業株式会社 会話支援装置、会話支援システム、会話支援方法およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6640010B2 (en) * 1999-11-12 2003-10-28 Xerox Corporation Word-to-word selection on images
WO2003063067A1 (en) * 2002-01-24 2003-07-31 Chatterbox Systems, Inc. Method and system for locating positions in printed texts and delivering multimedia information
US6928619B2 (en) * 2002-05-10 2005-08-09 Microsoft Corporation Method and apparatus for managing input focus and z-order
US7310781B2 (en) * 2003-06-05 2007-12-18 International Business Machines Corporation System and method for content and information transfer between program entities
US7702673B2 (en) * 2004-10-01 2010-04-20 Ricoh Co., Ltd. System and methods for creation and use of a mixed media environment
US8838562B1 (en) * 2004-10-22 2014-09-16 Google Inc. Methods and apparatus for providing query parameters to a search engine
US7865817B2 (en) * 2006-12-29 2011-01-04 Amazon Technologies, Inc. Invariant referencing in digital works
US8117527B2 (en) * 2007-05-08 2012-02-14 Eastman Kodak Company Automated folio references
US8610671B2 (en) * 2007-12-27 2013-12-17 Apple Inc. Insertion marker placement on touch sensitive display
JP2009205304A (ja) * 2008-02-26 2009-09-10 Ntt Docomo Inc タッチパネルの制御装置、制御方法およびコンピュータプログラム
US8294680B2 (en) * 2009-03-27 2012-10-23 Sony Mobile Communications Ab System and method for touch-based text entry
CN101694650A (zh) * 2009-10-10 2010-04-14 宇龙计算机通信科技(深圳)有限公司 一种复制和粘贴数据的方法、装置和移动终端
WO2011079437A1 (en) 2009-12-29 2011-07-07 Nokia Corporation Method and apparatus for receiving input
KR101673918B1 (ko) * 2010-02-11 2016-11-09 삼성전자주식회사 휴대단말에서 복수의 정보들을 제공하는 방법 및 장치
KR101477530B1 (ko) * 2010-03-12 2014-12-30 뉘앙스 커뮤니케이션즈, 인코포레이티드 이동 전화의 터치 스크린과 함께 사용하기 위한 다중 모드 문자 입력 시스템
WO2011148210A1 (en) * 2010-05-25 2011-12-01 Sony Ericsson Mobile Communications Ab A user interface for a touch sensitive display on an electronic device
KR101838260B1 (ko) * 2011-06-03 2018-03-13 구글 엘엘씨 텍스트를 선택하기 위한 제스처들
CN102363352A (zh) * 2011-10-31 2012-02-29 青岛海尔模具有限公司 一种注塑模具中的下坡斜顶加速抽芯机构组件
US8345017B1 (en) * 2012-03-04 2013-01-01 Lg Electronics Inc. Touch input gesture based command
EP2836923A4 (en) * 2012-04-10 2016-01-13 Blackberry Ltd METHODS AND APPARATUS FOR COPYING AND INSERTING INFORMATION

Also Published As

Publication number Publication date
KR101673068B1 (ko) 2016-11-04
US20150074578A1 (en) 2015-03-12
JP2015518604A (ja) 2015-07-02
CN104541239A (zh) 2015-04-22
KR20140148472A (ko) 2014-12-31
EP2834725A1 (en) 2015-02-11
AU2012376152A1 (en) 2014-10-23
WO2013149403A1 (en) 2013-10-10
EP2834725A4 (en) 2015-12-09

Similar Documents

Publication Publication Date Title
JP6055961B2 (ja) テキスト選択及び入力
JP6965319B2 (ja) 文字入力インターフェース提供方法及び装置
US11947782B2 (en) Device, method, and graphical user interface for manipulating workspace views
US8624935B2 (en) Smart keyboard management for a multifunction device with a touch screen display
US8214768B2 (en) Method, system, and graphical user interface for viewing multiple application windows
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
EP3557395B1 (en) Information processing apparatus, information processing method, and computer program
US20130104068A1 (en) Text prediction key
US20110175826A1 (en) Automatically Displaying and Hiding an On-screen Keyboard
US20130263013A1 (en) Touch-Based Method and Apparatus for Sending Information
CN103309596B (zh) 一种输入法键盘的调整方法及其移动终端
CN102362252A (zh) 用于基于触摸的文本输入的系统和方法
WO2009111138A1 (en) Handwriting recognition interface on a device
US9569099B2 (en) Method and apparatus for displaying keypad in terminal having touch screen
US20120262388A1 (en) Mobile device and method for controlling mobile device
WO2019015581A1 (zh) 文字删除方法及移动终端
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
US20150212726A1 (en) Information processing apparatus and input control method
KR20130011905A (ko) 모바일 기기에서 스크롤바를 통한 문자 입력 방법 및 장치
KR20140027838A (ko) 멀티 터치를 이용한 핸드 라이팅 기능을 가지는 모바일 장치 및 제어 방법
US11460971B2 (en) Control method and electronic device
US8924882B2 (en) Method for controlling a software direction pad of an electronic device, electronic device and computer-readable medium thereof
US20190302952A1 (en) Mobile device, computer input system and computer readable storage medium
US20150185988A1 (en) Method, apparatus and recording medium for guiding text editing position
WO2019071539A1 (zh) 滚动显示通知消息的方法及设备

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160705

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160804

R150 Certificate of patent or registration of utility model

Ref document number: 6055961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250