JP2009266236A - デバイス上の言語入力インターフェース - Google Patents
デバイス上の言語入力インターフェース Download PDFInfo
- Publication number
- JP2009266236A JP2009266236A JP2009121397A JP2009121397A JP2009266236A JP 2009266236 A JP2009266236 A JP 2009266236A JP 2009121397 A JP2009121397 A JP 2009121397A JP 2009121397 A JP2009121397 A JP 2009121397A JP 2009266236 A JP2009266236 A JP 2009266236A
- Authority
- JP
- Japan
- Prior art keywords
- user interface
- interface element
- gesture
- characters
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0234—Character input methods using switches operable in different directions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0236—Character input methods using selection techniques to select from displayed items
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Telephone Function (AREA)
- Position Input By Displaying (AREA)
Abstract
【解決手段】テキストを入力するための、コンピュータプログラム製品を含む、方法、システム、デバイス、及び装置。ユーザインターフェースエレメントは、デバイスのタッチセンシティブディスプレイ上に呈示される。ユーザインターフェースエレメントは、複数の文字と関連され、その少なくとも1つのサブセットは、それぞれのジェスチャーと関連する。ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力が受信される。ユーザインターフェースエレメントに関して実行されたジェスチャーと関連するサブセットからの文字が入力される。
【選択図】図6
Description
これらの小型キーボード及び仮想キーボードは、1つより多い文字に対応するキーを有することができる。例えば、キーの幾つかは、デフォルトで、例えば、字「a」のような英語の文字に対応することができ、さらに、別の字、又は例えば、文字
のようなアクセントのオプションをもつ別の字、又は他のアクセントのオプションをもつ文字のような、他の付加的な文字に対応することができる。仮想キーボードの物理限度(例えば、サイズ)のために、ユーザは、仮想キーボードでは直ちに使用できない文字をタイプするのは困難であると感じることがある。
一般に、本明細書に説明される内容の別の態様は、デバイスのタッチセンシティブディスプレイ上のユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、ユーザインターフェースエレメントは、複数の日本語の仮名記号と関連されており、ユーザインターフェースエレメントに関するジェスチャーに基づいて、複数の日本語の仮名記号の1つを入力するという動作を含む方法において具現することができる。本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。
本明細書に説明される内容の特定の実施形態は、以下の利点の1つ又はそれ以上を実現するように実施することができる。記号及び文字は、携帯型デバイス上の仮想キーパッドを用いて、より効率的に入力することができる。マルチタップ文字シーケンスの後の方にある文字は、より迅速に入力することができる。
本明細書に説明される内容の1つ又はそれ以上の実施形態の詳細は、添付図面及び以下の説明に述べられる。内容についての他の特徴、態様、及び利点は、説明、図面及び特許請求の簡易から明らかになるであろう。
例示的なモバイルデバイス
図1は、例示的なモバイルデバイス100のブロック図である。モバイルデバイス100は、例えば、手持ち式コンピュータ、携帯情報端末、携帯電話、ネットワーク機器、カメラ、スマートフォン、高性能汎用パケット無線サービス(EGPRS)携帯電話、ネットワーク基地局、メディアプレーヤ、ナビゲーションデバイス、電子メールデバイス、ゲームコンソール、又はこれらのデータ処理デバイス又は他のデータ処理デバイスのいずれか2つ又はそれ以上の組み合わせとすることができる。
モバイルデバイスの概観
幾つかの実施においては、モバイルデバイス100は、タッチセンシティブディスプレイ102を含む。タッチセンシティブディスプレイ102は、液晶ディスプレイ(LCD)技術、発光ポリマーディスプレイ(LPD)技術、又は何らかの他のディスプレイ技術を実施することができる。タッチセンシティブディスプレイ102は、ユーザとの触覚及び/又は触知接触に敏感であるとすることができる。
幾つかの実施形態においては、マルチタッチセンシティブディスプレイ102は、例えば、圧力、程度、及び/又は各々のタッチ点の位置に関する処理データを含む多数の同時タッチ点を処理することができる。こうした処理は、多数の指によるジェスチャー及び相互作用、コーディング、及び他の相互作用を可能にする。例えば、スタイラス又は他のポインティングデバイスにより接触がなされるディスプレイのような他のタッチセンシティブディスプレイ技術を用いることができる。マルチタッチセンシティブディスプレイ技術の幾つかの例は、特許文献1、特許文献2、特許文献3、及び特許文献4に説明され、この各々は全体が引用により本明細書に組み入れられる。
幾つかの実施においては、モバイルデバイス100は、1つ又はそれ以上のグラフィカルユーザインターフェースをタッチセンシティブディスプレイ102に表示して、ユーザが種々のシステムオブジェクトにアクセスできるようにし、情報をユーザに伝送する。幾つかの実施においては、グラフィカルユーザインターフェースは、1つ又はそれ以上のディスプレイオブジェクト104、106を含むことができる。図示例においては、ディスプレイオブジェクト104、106はシステムオブジェクトの図による表現である。システムオブジェクトの幾つかの例は、デバイス機能、アプリケーション、ウィンドウ、ファイル、アラート、イベント、又は他の識別可能なシステムオブジェクトを含む。
幾つかの実施においては、モバイルデバイス100は、電話オブジェクト110により示されるテレフォニーデバイス、電子メールオブジェクト112により示される電子メールデバイス、ウェブオブジェクト114により示されるネットワークデータ通信デバイス、Wi−Fi基地局デバイス(図示せず)、及びメディアプレーヤオブジェクト116により示される媒体処理デバイスといった多数のデバイス機能を実施することができる。幾つかの実施においては、例えば、電話オブジェクト110、電子メールオブジェクト112、ウェブオブジェクト114、及びメディアプレーヤオブジェクト116のような特定のディスプレイオブジェクト104は、メニューバー118において表示することができる。幾つかの実施においては、デバイス機能は、図1に示すグラフィカルユーザインターフェースのような上位レベルのグラフィカルユーザインターフェースからアクセスすることができる。オブジェクト110、112、114、又は116の1つを触ることにより、例えば、対応する機能を呼び出すことができる。
幾つかの実施においては、モバイルデバイス100は、ネットワーク分散機能を実施することができる。例えば、この機能により、ユーザはモバイルデバイス100を取り上げ、移動中に、その関連するネットワークに対するアクセスを提供することができる。具体的には、モバイルデバイス100は、近傍の他の無線デバイスに対するインターネットアクセス(例えば、Wi−Fi)を伸ばすことができる。例えば、モバイルデバイス100は、1つ又はそれ以上のデバイスに対する基地局として構成することができる。したがって、モバイルデバイス100は、他の無線デバイスに対するネットワークアクセスを与える又は拒否することができる。
幾つかの実施においては、上位レベルのグラフィカルユーザインターフェース環境又は図1の状態は、モバイルデバイス100の底部近くに配置されたボタン120を押下げることにより元に戻すことができる。幾つかの実施においては、各々の対応するデバイス機能は、タッチセンシティブディスプレイ102上に表示される対応する「ホーム」ディスプレイオブジェクトを有することができ、図1のグラフィカルユーザインターフェース環境は「ホーム」ディスプレイオブジェクトを押下げることにより元に戻すことができる。
付加的な及び/又は異なるディスプレイオブジェクトは、さらに、図1のグラフィカルユーザインターフェースにおいて表示することができる。例えば、デバイス100が他のデバイスの基地局として機能する場合には、1つ又はそれ以上の「接続」オブジェクトがグラフィカルユーザインターフェースに現れて、接続を示すことができる。幾つかの実施においては、ディスプレイオブジェクト106は、ユーザにより構成することができ、例えば、ユーザが、どのオブジェクト106を表示されるか特定することができ、及び/又は、付加的なアプリケーション又は他の機能及び対応するディスプレイオブジェクトを与える他のソフトウェアをダウンロードすることができる。
幾つかの実施においては、近接センサ168を含んで、ユーザの検出を可能にし、モバイルデバイス100をユーザの耳に近接して位置させ、これに応じて、タッチセンシティブディスプレイ102を切り、偶発的な機能の呼び出しを防ぐことができる。幾つかの実施においては、タッチセンシティブディスプレイ102は、モバイルデバイス100がユーザの耳と近接しているとき、付加的な電力を節約するためにオフにすることができる。
幾つかの実施においては、ポートデバイス190、例えば、ユニバーサルシリアルバス(USB)、又はドッキンングポート又は何らかの他の有線ポート接続を含むことができる。ポートデバイス190は、例えば、他の通信デバイス100、ネットワークアクセスデバイス、パーソナルコンピュータ、プリンタ、ディスプレイスクリーン、又はデータを受信及び/又は送信することができる他の処理デバイスのような他のコンピューティングデバイスに対する有線接続を確立するのに使用することができる。幾つかの実施においては、ポートデバイス190は、モバイルデバイス100が、例えば、TCP/IP、HTTP、UDP、及びあらゆる他の既知のプロトコルのような1つ又はそれ以上のプロトコルを用いてホストデバイスと同期することを可能にする。
モバイルデバイス100は、さらに、802.11b/g、及び/又は、Blurtooth(商標)通信デバイス188といった1つ又はそれ以上の無線通信サブシステムを含むことができる。他の通信プロトコルもまた支持することができ、他の802.x通信プロトコル(例えば、WiMax、Wi−Fi、3G)、カメラレンズ及びセンサ180、広域自動車通信システム(GSM)、高性能データGSM環境(EDGE)等を含む。
図2は、図1のモバイルデバイス100の例示的な実施のブロック図200である。モバイルデバイス100は、メモリインターフェース202、1つ又はそれ以上のデータプロセッサ、画像プロセッサ、及び/又は中央処理装置204、及び周辺装置インターフェース206を含むことができる。メモリインターフェース202、1つ又はそれ以上のプロセッサ204、及び/又は周辺装置インターフェース206は、別個の構成部品であってもよいし、1つ又はそれ以上の集積回路に統合されてもよい。モバイルデバイス100の種々の構成部品は、1つ又はそれ以上の通信バス又は信号ラインにより結合されることができる。
センサ、デバイス、及びサブシステムは、周辺装置インターフェース206に結合されて、多機能を可能にすることができる。例えば、モーションセンサ210、光センサ212、及び近接センサ214は、周辺装置インターフェース206に結合されて、図1に関して説明された方位、照明、及び近接機能を可能にすることができる。ポジショニングシステム(例えば、GPSレシーバ)、温度センサ、バイオメトリックセンサ、又は関連する機能を可能にするための他の感知デバイスのような他のセンサ216もまた周辺装置インターフェース206に接続することができる。
通信機能は、1つ又はそれ以上の無線通信サブシステム224を通して可能になり、無線周波数レシーバ及びトランスミッタ及び/又は光(例えば、赤外線)レシーバ及びトランスミッタを含むことができる。通信サブシステム224の特定の設計及び実施は、携帯デバイス100が動作することが意図される通信ネットワークに依存することがある。例えば、モバイルデバイス100は、GSMネットワーク、GPRSネットワーク、EDGEネットワーク、Wi−Fi又はWiMaxネットワーク、及びBluetooth(商標)ネットワーク上で動作するように設計された通信サブシステム224を含むことができる。具体的には、無線通信システム224は、デバイス100を他の無線デバイスの基地局として構成することができるようにホストプロトコルを含むことができる。
オーディオサブシステム226は、スピーカー228及びマイクロフォン230に結合して、音声認識、音声再現、デジタル録音、及びテレフォニー機能といった音声により可能になる機能を可能にすることができる。
他の入力コントローラ244は、1つ又はそれ以上のボタン、ロッカースイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスのようなポインティングデバイスといった他の入力/制御デバイスに結合することができる。1つ又はそれ以上のボタン(図示せず)は、スピーカー228及び/又はマイクロフォン230の音量制御のためにアップ/ダウンボタンを含むことができる。
1つの実施においては、第1の持続時間においてボタンを押下げることにより、タッチスクリーン246のロックが外れることになり、第1の持続時間より長い第2の持続時間においてボタンを押下げることにより、モバイルデバイス100への電力をオン又はオフにすることができる。ユーザは、ボタンの1つ又はそれ以上の機能をカスタマイズすることができる。タッチスクリーン246はまた、例えば、仮想又はソフトボタン及び/又はキーボードを実施するのに用いることができる。
メモリインターフェース202は、メモリ250に結合することができる。メモリ250は、高速ランダムアクセスメモリ及び/又は不揮発性メモリ、例えば、1つ又はそれ以上の磁気ディスクストレージデバイス、1つ又はそれ以上の光ストレージデバイス、及び/又はフラッシュメモリ(例えば、NAND、NOR)を含むことができる。メモリ250は、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksといった埋め込まれたオペレーティングシステムといったオペレーティングシステム252を格納することができる。オペレーティングシステム252は、基本システムを扱うため及びハードウェア依存タスクを実行するための命令を含むことができる。幾つかの実施においては、オペレーティングシステム252は、カーネル(例えば、UNIXカーネル)とすることができる。
上で識別された命令及びアプリケーションの各々は、上述の1つ又はそれ以上の機能を実行するための一組の命令に対応するとすることができる。これらの命令は、別個のソフトウェアプログラム、処置、又はモジュールとして実施される必要はない。メモリ250は、付加的な命令又はより少ない命令を含むことができる。さらに、モバイルデバイス100の種々の機能は、1つ又はそれ以上の信号処理及び/又は特殊用途向け集積回路を含むハードウェア及び/又はソフトウェアにおいて実施することができる。
図3Aから図3Eは、テキストをモバイルデバイス100に入力する又は入れるための例示的なユーザインターフェースを示す。モバイルデバイス100は、テキスト呈示領域302及びテキスト入力領域301をタッチセンシティブディスプレイ102上に表示することができる。テキスト呈示領域302は、例えば、ノート取りアプリケーション、電子メールアプリケーションなど、入力テキストを表示又は呈示することができるどのような領域であってもよい。幾つかの実施においては、テキスト呈示領域302は、1つ又はそれ以上のテキストフィールド(例えば、ウェブページにおけるテキストフィールド)である。
テキスト入力領域301は、ユーザにより、時、数、記号、文字等(以下では、便宜上、集合的に「文字」と呼ぶ)をモバイルデバイス100上に入れるように用いることができる1つ又はそれ以上のユーザインターフェースエレメントを含む。幾つかの実施においては、ユーザインターフェースエレメントは、各々が1つ又はそれ以上の文字と関連する1つ又はそれ以上の仮想キー304を含むことができる。
幾つか実施においては、マルチタップ順のトグルキー(図示せず)を含むことができる。ユーザは、マルチタップ順のトグルキーを用いて、キーの文字順を逆にして通常は順番の末端にあり、したがって、入力するのに幾つかのタップが必要になる文字を、1つ又は少ないタップにより入力できるようにする。再びキーをタッピングすることにより、文字の順番は元の順番に戻る。
幾つか実施においては、仮想キー304の各々は、1つ又はそれ以上の日本語の仮名記号又は仮名記号により表わすことができる基本的な日本語の音と関連される。例えば、1つのキーは、あ、い、う、え、お、と関連させることができ、別のキーは、か、き、く、け、こ、と関連させることができ、以下同様である。幾つか実施においては、仮想キー304は、仮名の五十音の順番により、仮名記号と関連させられる。
幾つか実施においては、ユーザは、ユーザインターフェースエレメントに対してジェスチャーを実行することにより、並びに、マルチタップにより、ユーザインターフェースエレメント(例えば、仮想キー304)と関連する文字の少なくとも幾つかを入力することができる。例えば、仮想キーと関連する文字の1つ又はそれ以上の各々は、仮想キーに対して実行することができるそれぞれのジェスチャーと関連することができる。ユーザは、特定の仮想キーに対して対応するジェスチャーを実行することにより、特定の文字を入力することができる。
幾つか実施においては、それぞれのジェスチャーは、仮想キーからの異なる方向におけるフリックである。仮想キーにおいては、ユーザインターフェースエレメントと関連する文字は、ユーザインターフェースエレメントに関するそれぞれのフリック方向に割り当てることができる。ユーザインターフェースエレメントに対する特定の方向におけるフリックは、ユーザインターフェースエレメントに関連する、及び、その方向に割り当てられた文字を選択する。
幾つかの実施においては、文字に対するジェスチャー方向を示す視覚支援部は、仮想キーが触れられて少なくとも所定の時間の量(例えば、1秒)だけ保持された場合に表示される。例えば、仮想キー306が少なくとも1秒だけ保持された場合には、図3Dに示すように、視覚支援部308が表示される。視覚支援部308は、仮想キー306においては、い、は北方向のフリックにより入力することができ、う、は東方向のフリック、え、は南方向のフリック、及び、お、は西方向のフリックにより入力することができることを示す。
さらに別の視覚支援部の例が図7及び図8に示される。図7においては、仮想キーの初期位置から文字が放射する状態を示す。図8においては、第2の仮想キーが仮想キーの初期位置を取り囲む。
幾つかの実施においては、仮想キー(又は何らかのユーザインターフェースエレメント)は、例えば、図3Cに示すように、フリック又はジェスチャーと共に移動するように表示される。幾つかの他の実施形態においては、仮想キー又はユーザインターフェースエレメントは、所定の位置に留まる。
より一般的には、ユーザインターフェースエレメントは、ジェスチャーに応じたアニメーション又は他の視覚効果により表示されることができる。アニメーションの例は、上述のように、限定されるものではないが、ジェスチャーと共に移動する、又は、ジェスチャーに応じて空間で回転するユーザエレメントを含む。他の視覚効果は、例えば、図3Fに示すように、確認として、入力した文字を示すポップアップを含むことができる。
複数の文字と関連する仮想キー304においては、仮想キー304と関連する複数の文字の所定の数は、実施に応じて、ジェスチャーを用いて、並びに、又は、マルチタップを用いる代わりに、入力できることが理解されるべきである。例えば、幾つかの実施においては、仮想キー304に関連する文字のすべては、ジェスチャー及びマルチタップを用いて入力することができる。幾つかの他の実施においては、仮想キー304と関連する文字のすべてより少ないものを、ジェスチャー及びマルチタップを用いて入力することができ、幾つかは、マルチタップのみを用いて入力することができる。
幾つかの実施においては、ユーザインターフェースエレメント502に関連する文字(例えば、仮名)を示し、対応するジェスチャー方向を示す視覚支援部を、ユーザインターフェースエレメント502と共に示すことができる。例えば、視覚支援部506は、ユーザインターフェースエレメント504と共に表示される。
幾つかの実施においては、デバイス100は、上述の実施のいずれにおいては、現行のテキスト入力303において仮名ストリングに対する候補リストを表示する。候補リストは、例えば、読みとしてその仮名ストリングを有する先頭の漢字の文字を含む用語又は句を含むことができる。候補リストは、例えば、テキスト呈示領域302及び/又はテキスト入力領域301において表示することができる。
上述の方向の割り当ては、例示的なものに過ぎないことが理解されるべきである。一般に、ユーザインターフェースエレメントと関連する文字は、任意に、あらゆる順番で、予め割り当てられた方向とすることができる。幾つかの実施においては、ユーザインターフェースエレメントに対するジェスチャー方向を割り当てる慣例は、ユーザインターフェースエレメントの文字の順番における最初の文字は、特定の方向に割り当てられることである(例えば、図7においては西、図8においては北西)。ユーザインターフェースエレメントの残りの文字は、次いで、例えば、図7及び図8に示すように、時計回り方向に進む順番で割り当てられる。
複数の文字と関連するユーザインターフェースエレメントが呈示され、複数の文字の少なくとも1つのサブセットの各々は、ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連される(602)。デバイス100は、例えば、ユーザインターフェースエレメント(例えば、仮想キー306、オブジェクト504)を表示することができる。ユーザインターフェースエレメントは、複数の文字と関連されており、その1つ又はそれ以上の各々は、ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連されている。例えば、ユーザインターフェースエレメントは、複数の仮名記号と関連させることができ、これらの記号の1つ又はそれ以上の各々は、ユーザインターフェースエレメントからの異なる方向におけるフリックジェスチャーと関連させることができる。幾つかの実施においては、フリックジェスチャーの異なる方向及び対応する文字を示す視覚支援部を表示することができる。視覚支援部は、デフォルトにより、又は、ユーザ入力に応じて(例えば、仮想キーを保持するような)表示することができる。
ユーザインターフェースエレメントに関して実行されるジェスチャーに関連する文字が入力される(606)。ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する文字は、現行のテキスト入力に示される。例えば、特定の方向において実行されるフリックと関連する仮名記号が入力され、現行のテキスト入力に示される。
幾つかの実施においては、ジェスチャーにより選択される文字は、ジェスチャーの始点に対するジェスチャーにより取られる経路に基づく。例えば、フリッキングジェスチャーは、始点及び終点をもつ経路を辿ることができる。始点は、ユーザインターフェースエレメントの中心にある必要はない。幾つかの実施においては、始点に対する経路の方向は、入力される文字を決定する。
幾つかの実施においては、ユーザインターフェースエレメントは、ジェスチャーに応じて、アニメーションにより表示することができ、又は、他の視覚効果を表示することができる。例えば、ユーザインターフェースエレメントは、フリッキングジェスチャーに応じて、フリッキングジェスチャーと共に移動するように表示することができる。別の例として、ユーザインターフェースエレメントは、フリッキングジェスチャーに応じて、空間において回転する三次元オブジェクトとして表示することができる。
幾つかの実施においては、候補リストは、現行のテキスト入力におけるストリングに対して表示することができる。候補リストは、ストリングに対する1つ又はそれ以上の候補となる置き換えを含むことができる。候補となる置き換えの異なる種類が可能であり、候補となる置き換えの種類は、辞書に基づいて提案される綴りの修正、オートコンプリート特徴により提案される用語、読みとして仮名が入力されたストリングを有する漢字等を含む。ユーザは、例えば、入力されたストリングをそのまま受け入れてもよいし、候補となる置き換えを選択してもよいし、ストリングを編集してもよい。
上述の実施は日本語テキストの入力に関して説明されるが、上述の実施は、他の言語と用いられるように適応させることができることが理解されるべきである。
本明細書において説明されるプロセス及び論理フローは、入力データ上で動作することにより機能を実行し、出力を生成する1つ又はそれ以上のコンピュータプログラムを実行する1つ又はそれ以上のプログラム可能プロセッサにより実行することができる。プロセス及び論理フローは、さらに、例えば、FPGA(フィールド・プログラマブル・ゲート・アレイ)又はASIC(特定用途向け集積回路)のような特殊論理回路により実行することができ、装置は、さらに、こうした特殊論理回路として実施することができる。
開示される実施形態は、例えば、データサーバとしてバックエンドコンポーネントを含む、又は、例えばアプリケーションサーバのようなミドルウェアコンポーネント、又は、例えばユーザが、ここに開示されるものの実施形態と対話することができるグラフィカルユーザインターフェース又はウェブブラウザを有するクライアントコンピュータのようなフロントエンドコンポーネント、又は、1つ又はそれ以上のこうしたバックエンド、ミドルウェア、又はフロントエンドコンポーネントの組み合わせを含むコンピューティングシステムにおいて実施することができる。システムのコンポーネントは、例えば、通信ネットワークのようなあらゆる形態又は媒体のデジタルデータ通信により相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)及び、例えばインターネットのようなワイドエリアネットワーク(「WAN」)を含む。
同様に、動作は、特定の順番で図示されるが、このことは、望ましい結果を実現するために、こうした動作が、示される特定の順番で又は逐次的な順番で実行され、又は、それらのすべての図示される動作が実行されることを必要とするように理解されるべきではない。特定の状況においては、マルチタスキング及び並行処理が有利とすることができる。さらに、上述の実施形態における種々のシステムコンポーネントの分離は、すべての実施形態においてこうした分離が必要になると理解されるべきではなく、説明されたプログラムコンポーネント及びシステムは、一般に、単一のソフトウェア製品に共に統合されるか、又は、多数のソフトウェア製品にパッケージ化されることができると理解されるべきである。
本明細書に説明される特定の実施形態が説明された。他の実施形態は、特許請求の範囲内にある。例えば、特許請求の範囲に挙げられた動作は、異なる順番で実行し、依然として望ましい結果を実現することができる。一例として、添付図面に示されるプロセスは、望ましい結果を実現するために、必ずしも、示される特定の順番又は逐次的な順番を必要とするものではない。特定の実施においては、マルチタスキング及び並列処理が有利とすることができる。
102:タッチセンシティブディスプレイ
104、106:ディスプレイオブジェクト
204:プロセッサ
250:メモリ
Claims (15)
- 複数の文字と関連するユーザインターフェースエレメントをタッチセンシティブディスプレイ上に呈示し、
前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する
ステップを含むことを特徴とする方法。 - 前記複数の文字は、日本語の仮名記号を含むことを特徴とする請求項1に記載の方法。
- 前記ユーザインターフェースエレメントは仮想キーであることを特徴とする請求項1に記載の方法。
- 前記仮想キーを1度又はそれ以上タッピングして入力を受信し、
前記仮想キーの前記タッピングに基づいて、前記複数の文字の1つを入力する
ステップをさらに含むことを特徴とする請求項3に記載の方法。 - 前記ユーザインターフェースエレメントに関する前記それぞれのジェスチャーは、前記タッチセンシティブディスプレイ上の前記ユーザインターフェースエレメントに関するフリックを含むことを特徴とする請求項1に記載の方法。
- 前記複数の文字の前記サブセットの各々は、前記ユーザインターフェースエレメントに対するそれぞれの方向におけるフリックと関連されることを特徴とする請求項5に記載の方法。
- 前記それぞれのフリックに対する前記それぞれの方向を示す資格支援部を呈示するステップをさらに含むことを特徴とする請求項6に記載の方法。
- 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップをさらに含むことを特徴とする請求項1に記載の方法。
- 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記ジェスチャーに応じて、前記ユーザインターフェースエレメントを回転する三次元オブジェクトとして呈示するステップを含むことを特徴とする請求項8に記載の方法。
- 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記ユーザインターフェースエレメントが前記ジェスチャーと共に移動するように呈示するステップを含むことを特徴とする請求項8に記載の方法。
- 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記入力された文字を示す確認ポップアップを呈示するステップを含むことを特徴とする請求項8に記載の方法。
- タッチセンシティブディスプレイと、
メモリと、
1つ又はそれ以上のプロセッサと、
前記メモリ内に格納され、前記1つ又はそれ以上のプロセッサにより実行されるように構成された命令と、
を含み、前記命令は、
複数の文字と関連するユーザインターフェースエレメントをデバイスのタッチセンシティブディスプレイ上に呈示し、
前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する、
命令を含むことを特徴とする携帯型デバイス。 - 有形プログラムキャリア上でエンコードされ、携帯型デバイスが、
複数の文字と関連するユーザインターフェースエレメントをデバイスのタッチセンシティブディスプレイ上に呈示し、
前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する、
ことを含む動作を実行させるようにすることができることを特徴とするコンピュータプログラム製品。 - デバイスのタッチセンシティブディスプレイ上のユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
前記ユーザインターフェースエレメントは、複数の日本語の仮名記号と関連されており、
前記ユーザインターフェースエレメントに関する前記ジェスチャーに基づいて、前記複数の日本語の仮名記号の1つを入力する
ステップを含むことを特徴とする方法。 - デバイスのタッチセンシティブディスプレイ上に、各々がそれぞれの複数の文字と関連された複数のユーザインターフェースエレメントを呈示し、
前記ユーザインターフェースエレメントに関する1つ又はそれ以上のジェスチャーを実行するユーザ入力を受信し、
前記ジェスチャーに基づいて、前記それぞれの複数の文字からの1つ又はそれ以上の誇示を入力する
ステップを含むことを特徴とする方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/107,711 US8949743B2 (en) | 2008-04-22 | 2008-04-22 | Language input interface on a device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011035538A Division JP2011138536A (ja) | 2008-04-22 | 2011-02-22 | デバイス上の言語入力インターフェース |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009266236A true JP2009266236A (ja) | 2009-11-12 |
Family
ID=41202163
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009121397A Pending JP2009266236A (ja) | 2008-04-22 | 2009-04-22 | デバイス上の言語入力インターフェース |
JP2011035538A Pending JP2011138536A (ja) | 2008-04-22 | 2011-02-22 | デバイス上の言語入力インターフェース |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011035538A Pending JP2011138536A (ja) | 2008-04-22 | 2011-02-22 | デバイス上の言語入力インターフェース |
Country Status (2)
Country | Link |
---|---|
US (1) | US8949743B2 (ja) |
JP (2) | JP2009266236A (ja) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011237963A (ja) * | 2010-05-10 | 2011-11-24 | Micware Co Ltd | 情報処理装置、情報処理方法、およびプログラム |
JP2012043248A (ja) * | 2010-08-20 | 2012-03-01 | Nec Corp | 操作入力装置ならびにプログラムと方法 |
WO2012029345A1 (ja) * | 2010-09-03 | 2012-03-08 | 日本電気株式会社 | 携帯端末およびその表示制御方法 |
WO2012060352A1 (ja) * | 2010-11-02 | 2012-05-10 | 株式会社Jvcケンウッド | タッチパネル処理装置、タッチパネル処理方法、及びプログラム |
WO2012086133A1 (ja) * | 2010-12-20 | 2012-06-28 | パナソニック株式会社 | タッチパネル装置 |
JP2012146342A (ja) * | 2012-05-09 | 2012-08-02 | Nec Corp | 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置 |
JP2012155491A (ja) * | 2011-01-25 | 2012-08-16 | Nec Personal Computers Ltd | 入力装置 |
JP2012168939A (ja) * | 2011-02-11 | 2012-09-06 | Sony Mobile Communications Inc | 情報入力装置 |
WO2012161223A1 (ja) * | 2011-05-25 | 2012-11-29 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置、入力方法およびプログラム |
JP2013041567A (ja) * | 2011-07-21 | 2013-02-28 | Sharp Corp | 文字入力装置 |
JP2013511763A (ja) * | 2009-11-24 | 2013-04-04 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器 |
JP2013527539A (ja) * | 2010-05-24 | 2013-06-27 | テンプル,ウィル,ジョン | 多角的ボタン、キーおよびキーボード |
JPWO2012102159A1 (ja) * | 2011-01-27 | 2014-06-30 | シャープ株式会社 | 文字入力装置および文字入力方法 |
JP2015049861A (ja) * | 2013-09-04 | 2015-03-16 | Necパーソナルコンピュータ株式会社 | 情報処理装置、制御方法、及びプログラム |
EP2916212A1 (en) | 2014-03-04 | 2015-09-09 | Omron Corporation | Character input device and information processing device |
JP2015207143A (ja) * | 2014-04-21 | 2015-11-19 | 富士通株式会社 | 情報処理装置,文字入力プログラム及び文字入力方法 |
JP2016514872A (ja) * | 2013-03-22 | 2016-05-23 | ネオペード インコーポレイテッド | 文字入力装置及び文字入力方法 |
US9348503B2 (en) | 2008-01-10 | 2016-05-24 | Nec Corporation | Information input device, information input method, information input control program, and electronic device |
US10019995B1 (en) | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
US11062615B1 (en) | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
Families Citing this family (100)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005096217A1 (en) * | 2004-04-02 | 2005-10-13 | Nokia Corporation | Apparatus and method for handwriting recognition |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US20090058823A1 (en) * | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US8661340B2 (en) | 2007-09-13 | 2014-02-25 | Apple Inc. | Input methods for device having multi-language environment |
US8677285B2 (en) | 2008-02-01 | 2014-03-18 | Wimm Labs, Inc. | User interface of a small touch sensitive display for an electronic data and communication device |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8908973B2 (en) * | 2008-03-04 | 2014-12-09 | Apple Inc. | Handwritten character recognition interface |
CN101667092A (zh) * | 2008-05-15 | 2010-03-10 | 杭州惠道科技有限公司 | 实时预测用户输入的人机界面 |
KR101111566B1 (ko) * | 2008-05-23 | 2012-02-24 | 삼성전자주식회사 | 휴대 단말기의 인터페이스 전환 장치 및 방법 |
US9355090B2 (en) * | 2008-05-30 | 2016-05-31 | Apple Inc. | Identification of candidate characters for text input |
US9250797B2 (en) * | 2008-09-30 | 2016-02-02 | Verizon Patent And Licensing Inc. | Touch gesture interface apparatuses, systems, and methods |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
US8289162B2 (en) * | 2008-12-22 | 2012-10-16 | Wimm Labs, Inc. | Gesture-based user interface for a wearable portable device |
US20100177048A1 (en) * | 2009-01-13 | 2010-07-15 | Microsoft Corporation | Easy-to-use soft keyboard that does not require a stylus |
US8326358B2 (en) | 2009-01-30 | 2012-12-04 | Research In Motion Limited | System and method for access control in a portable electronic device |
US8605039B2 (en) * | 2009-03-06 | 2013-12-10 | Zimpl Ab | Text input |
US8564541B2 (en) * | 2009-03-16 | 2013-10-22 | Apple Inc. | Zhuyin input interface on a device |
KR101561911B1 (ko) * | 2009-03-23 | 2015-10-20 | 엘지전자 주식회사 | 키 입력 방법 및 그 장치 |
US7721222B1 (en) * | 2009-06-10 | 2010-05-18 | Cheman Shaik | Dynamic language text generation system and method |
TWI492140B (zh) * | 2009-08-28 | 2015-07-11 | Compal Electronics Inc | 鍵盤輸入的方法與輔助系統 |
JP5373562B2 (ja) * | 2009-11-12 | 2013-12-18 | 京セラ株式会社 | 携帯端末及び入力制御プログラム |
KR20110071326A (ko) * | 2009-12-21 | 2011-06-29 | 삼성전자주식회사 | 프로젝터 기능의 휴대 단말기의 입력 키 출력 방법 및 장치 |
JP5531612B2 (ja) * | 2009-12-25 | 2014-06-25 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム |
US10007393B2 (en) * | 2010-01-19 | 2018-06-26 | Apple Inc. | 3D view of file structure |
KR101682579B1 (ko) * | 2010-03-30 | 2016-12-05 | 삼성전자 주식회사 | 터치 단말에서 문자 입력기 제공 방법 및 장치 |
US8881061B2 (en) | 2010-04-07 | 2014-11-04 | Apple Inc. | Device, method, and graphical user interface for managing folders |
US10788976B2 (en) | 2010-04-07 | 2020-09-29 | Apple Inc. | Device, method, and graphical user interface for managing folders with multiple pages |
DE102010036906A1 (de) * | 2010-08-06 | 2012-02-09 | Tavendo Gmbh | Konfigurierbares Pie-Menü |
JP5452418B2 (ja) * | 2010-08-23 | 2014-03-26 | 京セラ株式会社 | 触感呈示装置 |
US9043732B2 (en) * | 2010-10-21 | 2015-05-26 | Nokia Corporation | Apparatus and method for user input for controlling displayed information |
US20120113008A1 (en) * | 2010-11-08 | 2012-05-10 | Ville Makinen | On-screen keyboard with haptic effects |
KR20120074175A (ko) * | 2010-12-27 | 2012-07-05 | 삼성전자주식회사 | 단말기에서 문자 입력 장치 및 방법 |
US20120162086A1 (en) * | 2010-12-27 | 2012-06-28 | Samsung Electronics Co., Ltd. | Character input method and apparatus of terminal |
KR20120081422A (ko) * | 2011-01-11 | 2012-07-19 | 삼성전자주식회사 | 터치 스크린을 구비한 단말기 및 그 단말기에서 터치 이벤트에 따른 문자 입력 방법 |
US8738356B2 (en) * | 2011-05-18 | 2014-05-27 | Microsoft Corp. | Universal text input |
US8816966B2 (en) * | 2011-05-23 | 2014-08-26 | Microsoft Corporation | Touchscreen japanese character selection through sliding input |
US9189077B2 (en) | 2011-05-24 | 2015-11-17 | Microsoft Technology Licensing, Llc | User character input interface with modifier support |
US8286104B1 (en) * | 2011-10-06 | 2012-10-09 | Google Inc. | Input method application for a touch-sensitive user interface |
US8490008B2 (en) | 2011-11-10 | 2013-07-16 | Research In Motion Limited | Touchscreen keyboard predictive display and generation of a set of characters |
US9652448B2 (en) | 2011-11-10 | 2017-05-16 | Blackberry Limited | Methods and systems for removing or replacing on-keyboard prediction candidates |
US9715489B2 (en) | 2011-11-10 | 2017-07-25 | Blackberry Limited | Displaying a prediction candidate after a typing mistake |
US9122672B2 (en) | 2011-11-10 | 2015-09-01 | Blackberry Limited | In-letter word prediction for virtual keyboard |
US9310889B2 (en) | 2011-11-10 | 2016-04-12 | Blackberry Limited | Touchscreen keyboard predictive display and generation of a set of characters |
CA2857531A1 (en) * | 2011-12-08 | 2013-06-13 | Exo U Inc. | Method for improving an interaction with a user interface displayed on a 3d touch screen display |
US9557913B2 (en) | 2012-01-19 | 2017-01-31 | Blackberry Limited | Virtual keyboard display having a ticker proximate to the virtual keyboard |
CA2789827C (en) | 2012-01-19 | 2017-06-13 | Research In Motion Limited | Virtual keyboard providing an indication of received input |
US20130222255A1 (en) | 2012-02-24 | 2013-08-29 | Research In Motion Limited | Portable electronic device including touch-sensitive display and method of controlling same |
EP2631758B1 (en) | 2012-02-24 | 2016-11-02 | BlackBerry Limited | Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters |
CN103365584A (zh) * | 2012-04-06 | 2013-10-23 | 中兴通讯股份有限公司 | 一种处理键盘输入的方法及设备 |
US9436291B2 (en) * | 2012-04-13 | 2016-09-06 | Texas Instruments Incorporated | Method, system and computer program product for operating a keyboard |
EP2653955B1 (en) * | 2012-04-16 | 2017-02-08 | BlackBerry Limited | Method and device having touchscreen keyboard with visual cues |
US9201510B2 (en) | 2012-04-16 | 2015-12-01 | Blackberry Limited | Method and device having touchscreen keyboard with visual cues |
WO2013156815A1 (en) * | 2012-04-18 | 2013-10-24 | Nokia Corporation | A display apparatus with haptic feedback |
US10025487B2 (en) | 2012-04-30 | 2018-07-17 | Blackberry Limited | Method and apparatus for text selection |
US9292192B2 (en) | 2012-04-30 | 2016-03-22 | Blackberry Limited | Method and apparatus for text selection |
US9354805B2 (en) | 2012-04-30 | 2016-05-31 | Blackberry Limited | Method and apparatus for text selection |
JP6000642B2 (ja) * | 2012-05-22 | 2016-10-05 | 京セラ株式会社 | 電子機器 |
WO2013175778A1 (ja) | 2012-05-22 | 2013-11-28 | 京セラ株式会社 | 電子機器及びパネル装置 |
US9207860B2 (en) | 2012-05-25 | 2015-12-08 | Blackberry Limited | Method and apparatus for detecting a gesture |
KR102124297B1 (ko) * | 2012-06-04 | 2020-06-19 | 홈 컨트롤 싱가포르 피티이. 엘티디. | 영숫자식 문자들을 입력하기 위한 사용자 인터페이스 |
US9116552B2 (en) | 2012-06-27 | 2015-08-25 | Blackberry Limited | Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard |
US9098516B2 (en) * | 2012-07-18 | 2015-08-04 | DS Zodiac, Inc. | Multi-dimensional file system |
JP5931627B2 (ja) * | 2012-07-23 | 2016-06-08 | 京セラ株式会社 | 携帯端末装置、プログラムおよび入力訂正方法 |
US20140040810A1 (en) * | 2012-08-01 | 2014-02-06 | James George Haliburton | Electronic device and method of changing a keyboard |
US9063653B2 (en) | 2012-08-31 | 2015-06-23 | Blackberry Limited | Ranking predictions based on typing speed and typing confidence |
US9524290B2 (en) | 2012-08-31 | 2016-12-20 | Blackberry Limited | Scoring predictions based on prediction length and typing speed |
JP5844707B2 (ja) * | 2012-09-28 | 2016-01-20 | 富士フイルム株式会社 | 画像表示制御装置、画像表示装置、プログラム及び画像表示方法 |
US8994827B2 (en) | 2012-11-20 | 2015-03-31 | Samsung Electronics Co., Ltd | Wearable electronic device |
US10423214B2 (en) | 2012-11-20 | 2019-09-24 | Samsung Electronics Company, Ltd | Delegating processing from wearable electronic device |
US10551928B2 (en) | 2012-11-20 | 2020-02-04 | Samsung Electronics Company, Ltd. | GUI transitions on wearable electronic device |
US11157436B2 (en) | 2012-11-20 | 2021-10-26 | Samsung Electronics Company, Ltd. | Services associated with wearable electronic device |
US11237719B2 (en) | 2012-11-20 | 2022-02-01 | Samsung Electronics Company, Ltd. | Controlling remote electronic device with wearable electronic device |
US11372536B2 (en) | 2012-11-20 | 2022-06-28 | Samsung Electronics Company, Ltd. | Transition and interaction model for wearable electronic device |
GB2511044A (en) | 2013-02-20 | 2014-08-27 | Ibm | Capturing diacritics on multi-touch devices |
JP6203512B2 (ja) * | 2013-03-25 | 2017-09-27 | 京セラ株式会社 | 電子機器、方法、及びプログラム |
JP5768841B2 (ja) * | 2013-06-21 | 2015-08-26 | コニカミノルタ株式会社 | 画像形成システム、画像形成装置、遠隔操作装置およびプログラム |
KR102313353B1 (ko) * | 2013-07-29 | 2021-10-18 | 삼성전자주식회사 | 캐릭터 입력 방법 및 디스플레이 장치 |
JP5628984B2 (ja) * | 2013-09-19 | 2014-11-19 | 京セラ株式会社 | 携帯端末及び入力制御プログラム |
JP5924325B2 (ja) * | 2013-10-02 | 2016-05-25 | コニカミノルタ株式会社 | 入力装置、情報処理装置、入力装置の制御方法、および、当該制御方法をコンピューターに実行させるためのプログラム |
US9529528B2 (en) * | 2013-10-22 | 2016-12-27 | International Business Machines Corporation | Accelerated data entry for constrained format input fields |
US10250735B2 (en) | 2013-10-30 | 2019-04-02 | Apple Inc. | Displaying relevant user interface objects |
US9529449B1 (en) * | 2013-12-04 | 2016-12-27 | Google Inc. | Input method editors for indic languages |
US10691332B2 (en) | 2014-02-28 | 2020-06-23 | Samsung Electronics Company, Ltd. | Text input on an interactive display |
TWI603255B (zh) * | 2014-05-05 | 2017-10-21 | 志勇無限創意有限公司 | 手持裝置及其輸入方法 |
US10223634B2 (en) | 2014-08-14 | 2019-03-05 | The Board Of Trustees Of The Leland Stanford Junior University | Multiplicative recurrent neural network for fast and robust intracortical brain machine interface decoders |
JP6380150B2 (ja) * | 2015-02-13 | 2018-08-29 | オムロン株式会社 | 文字入力システム用のプログラムおよび情報処理装置 |
USD777207S1 (en) * | 2015-02-27 | 2017-01-24 | Samsung Electronics Co., Ltd. | Display screen or portion thereof with icon |
KR101653102B1 (ko) * | 2015-04-13 | 2016-08-31 | 숭실대학교산학협력단 | 단순화된 쿼티 소프트웨어 키패드를 이용한 한글/영어/숫자/기호 문자 입력 방법 |
US9817570B2 (en) | 2015-11-17 | 2017-11-14 | International Business Machines Corporation | Three dimensional keyboard with rotatable keys |
DK201670595A1 (en) | 2016-06-11 | 2018-01-22 | Apple Inc | Configuring context-specific user interfaces |
US11816325B2 (en) | 2016-06-12 | 2023-11-14 | Apple Inc. | Application shortcuts for carplay |
US10417339B2 (en) * | 2017-08-18 | 2019-09-17 | Kyocera Document Solutions Inc. | Suggestion of alternate user input using different user interface |
US10949086B2 (en) * | 2018-10-29 | 2021-03-16 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods for virtual keyboards for high dimensional controllers |
JP7143792B2 (ja) * | 2019-03-14 | 2022-09-29 | オムロン株式会社 | 文字入力装置、文字入力方法、及び、文字入力プログラム |
US11675476B2 (en) | 2019-05-05 | 2023-06-13 | Apple Inc. | User interfaces for widgets |
CN112400155A (zh) * | 2019-06-12 | 2021-02-23 | 谷歌有限责任公司 | 在用户界面中动态展示重复使用的数据 |
US11640204B2 (en) | 2019-08-28 | 2023-05-02 | The Board Of Trustees Of The Leland Stanford Junior University | Systems and methods decoding intended symbols from neural activity |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002108543A (ja) * | 2000-09-21 | 2002-04-12 | Nokia Mobile Phones Ltd | 仮名文字入力方法 |
JP2002325965A (ja) * | 2001-04-27 | 2002-11-12 | Sega Corp | 入力文字処理方法 |
WO2007070223A1 (en) * | 2005-12-15 | 2007-06-21 | Microsoft Corporation | Smart soft keyboard |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2002912A1 (en) * | 1988-11-14 | 1990-05-14 | William A. Clough | Portable computer with touch screen and computer system employing same |
US5483261A (en) * | 1992-02-14 | 1996-01-09 | Itu Research, Inc. | Graphical input controller and method with rear screen image detection |
US5880411A (en) * | 1992-06-08 | 1999-03-09 | Synaptics, Incorporated | Object position detector with edge motion feature and gesture recognition |
US5488204A (en) * | 1992-06-08 | 1996-01-30 | Synaptics, Incorporated | Paintbrush stylus for capacitive touch sensor pad |
US5535119A (en) * | 1992-06-11 | 1996-07-09 | Hitachi, Ltd. | Character inputting method allowing input of a plurality of different types of character species, and information processing equipment adopting the same |
US6115053A (en) * | 1994-08-02 | 2000-09-05 | New York University | Computer animation method and system for synthesizing human-like gestures and actions |
JPH08272787A (ja) | 1995-03-29 | 1996-10-18 | Sharp Corp | 文字処理装置 |
US5825352A (en) * | 1996-01-04 | 1998-10-20 | Logitech, Inc. | Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad |
US5835079A (en) * | 1996-06-13 | 1998-11-10 | International Business Machines Corporation | Virtual pointing device for touchscreens |
JPH1049272A (ja) | 1996-08-05 | 1998-02-20 | Hozumi Nishie | ブラインド操作が容易なキーボード |
JP3889466B2 (ja) * | 1996-11-25 | 2007-03-07 | ソニー株式会社 | 文章入力装置及び方法 |
US6310610B1 (en) * | 1997-12-04 | 2001-10-30 | Nortel Networks Limited | Intelligent touch display |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7844914B2 (en) * | 2004-07-30 | 2010-11-30 | Apple Inc. | Activating virtual keys of a touch-screen virtual keyboard |
US7663607B2 (en) * | 2004-05-06 | 2010-02-16 | Apple Inc. | Multipoint touchscreen |
US7614008B2 (en) * | 2004-07-30 | 2009-11-03 | Apple Inc. | Operation of a computer with touch screen interface |
EP1058924B1 (en) * | 1998-01-26 | 2012-06-13 | Apple Inc. | Method and apparatus for integrating manual input |
CN1156741C (zh) * | 1998-04-16 | 2004-07-07 | 国际商业机器公司 | 手写汉字识别方法及装置 |
US6188391B1 (en) * | 1998-07-09 | 2001-02-13 | Synaptics, Inc. | Two-layer capacitive touchpad and method of making same |
JP2000089886A (ja) | 1998-09-10 | 2000-03-31 | Scale:Kk | 仮想多面体を用いたデスクトップ管理システム及び方法 |
JP2000112636A (ja) | 1998-10-07 | 2000-04-21 | Kanazawa Engineering Systems:Kk | かな文字入力装置 |
JP4542637B2 (ja) | 1998-11-25 | 2010-09-15 | セイコーエプソン株式会社 | 携帯情報機器及び情報記憶媒体 |
AU5299700A (en) | 1999-05-27 | 2000-12-18 | America Online, Inc. | Keyboard system with automatic correction |
US7030863B2 (en) | 2000-05-26 | 2006-04-18 | America Online, Incorporated | Virtual keyboard system with automatic correction |
US6677932B1 (en) * | 2001-01-28 | 2004-01-13 | Finger Works, Inc. | System and method for recognizing touch typing under limited tactile feedback conditions |
US6570557B1 (en) * | 2001-02-10 | 2003-05-27 | Finger Works, Inc. | Multi-touch system and method for emulating modifier keys via fingertip chords |
US7168046B2 (en) * | 2001-04-26 | 2007-01-23 | Lg Electronics Inc. | Method and apparatus for assisting data input to a portable information terminal |
JP3800984B2 (ja) | 2001-05-21 | 2006-07-26 | ソニー株式会社 | ユーザ入力装置 |
US6661409B2 (en) * | 2001-08-22 | 2003-12-09 | Motorola, Inc. | Automatically scrolling handwritten input user interface for personal digital assistants and the like |
JP2003173237A (ja) * | 2001-09-28 | 2003-06-20 | Ricoh Co Ltd | 情報入出力システム、プログラム及び記憶媒体 |
US6690387B2 (en) * | 2001-12-28 | 2004-02-10 | Koninklijke Philips Electronics N.V. | Touch-screen image scrolling system and method |
JP4073215B2 (ja) * | 2002-01-28 | 2008-04-09 | 富士通株式会社 | 文字入力装置 |
JP2003216650A (ja) * | 2002-01-28 | 2003-07-31 | Sony Corp | 情報媒介システムのためのグラフィカルユーザインターフェイス |
US7380203B2 (en) * | 2002-05-14 | 2008-05-27 | Microsoft Corporation | Natural input recognition tool |
US7096432B2 (en) * | 2002-05-14 | 2006-08-22 | Microsoft Corporation | Write anywhere tool |
US11275405B2 (en) * | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
EP1573715A4 (en) | 2002-12-16 | 2011-11-02 | Microsoft Corp | SYSTEMS AND METHOD FOR CONNECTING TO COMPUTER DEVICES |
US7098896B2 (en) * | 2003-01-16 | 2006-08-29 | Forword Input Inc. | System and method for continuous stroke word-based text input |
US8479112B2 (en) * | 2003-05-13 | 2013-07-02 | Microsoft Corporation | Multiple input language selection |
JP2005092441A (ja) | 2003-09-16 | 2005-04-07 | Aizu:Kk | 文字入力方法 |
US7406662B2 (en) * | 2003-11-10 | 2008-07-29 | Microsoft Corporation | Data input panel character conversion |
US20050152600A1 (en) * | 2004-01-14 | 2005-07-14 | International Business Machines Corporation | Method and apparatus for performing handwriting recognition by analysis of stroke start and end points |
WO2006055025A1 (en) * | 2004-11-19 | 2006-05-26 | Yoshimoto, Inc. | Data input device and data input method |
CA2500573A1 (en) * | 2005-03-14 | 2006-09-14 | Oculus Info Inc. | Advances in nspace - system and method for information analysis |
US7599828B2 (en) | 2005-03-01 | 2009-10-06 | Microsoft Corporation | Grammatically correct contraction spelling suggestions for french |
JP2007041726A (ja) | 2005-08-01 | 2007-02-15 | Ricoh Co Ltd | 表示処理装置、表示処理方法及び表示処理プログラム |
CN1949158B (zh) | 2005-10-11 | 2012-02-15 | 摩托罗拉移动公司 | 向电子设备中输入文本 |
JP2007156548A (ja) * | 2005-11-30 | 2007-06-21 | Toshiba Corp | 情報処理装置および切り替え方法 |
US7843427B2 (en) | 2006-09-06 | 2010-11-30 | Apple Inc. | Methods for determining a cursor position from a finger contact with a touch screen display |
TWI350504B (en) * | 2006-10-20 | 2011-10-11 | Au Optronics Corp | Integrated circuit connection structure and method for data transmission |
US8253694B2 (en) * | 2007-08-03 | 2012-08-28 | Google Inc. | Language keyboard |
US20090058823A1 (en) | 2007-09-04 | 2009-03-05 | Apple Inc. | Virtual Keyboards in Multi-Language Environment |
US8661340B2 (en) * | 2007-09-13 | 2014-02-25 | Apple Inc. | Input methods for device having multi-language environment |
US8289283B2 (en) * | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8908973B2 (en) | 2008-03-04 | 2014-12-09 | Apple Inc. | Handwritten character recognition interface |
-
2008
- 2008-04-22 US US12/107,711 patent/US8949743B2/en active Active
-
2009
- 2009-04-22 JP JP2009121397A patent/JP2009266236A/ja active Pending
-
2011
- 2011-02-22 JP JP2011035538A patent/JP2011138536A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002108543A (ja) * | 2000-09-21 | 2002-04-12 | Nokia Mobile Phones Ltd | 仮名文字入力方法 |
JP2002325965A (ja) * | 2001-04-27 | 2002-11-12 | Sega Corp | 入力文字処理方法 |
WO2007070223A1 (en) * | 2005-12-15 | 2007-06-21 | Microsoft Corporation | Smart soft keyboard |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9348503B2 (en) | 2008-01-10 | 2016-05-24 | Nec Corporation | Information input device, information input method, information input control program, and electronic device |
US10684775B2 (en) | 2008-01-10 | 2020-06-16 | Nec Corporation | Information input device, information input method, information input control program, and electronic device |
US9354802B2 (en) | 2008-01-10 | 2016-05-31 | Nec Corporation | Information input device, information input method, information input control program, and electronic device |
JP2013511763A (ja) * | 2009-11-24 | 2013-04-04 | サムスン エレクトロニクス カンパニー リミテッド | ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器 |
JP2011237963A (ja) * | 2010-05-10 | 2011-11-24 | Micware Co Ltd | 情報処理装置、情報処理方法、およびプログラム |
JP2013527539A (ja) * | 2010-05-24 | 2013-06-27 | テンプル,ウィル,ジョン | 多角的ボタン、キーおよびキーボード |
JP2012043248A (ja) * | 2010-08-20 | 2012-03-01 | Nec Corp | 操作入力装置ならびにプログラムと方法 |
WO2012029345A1 (ja) * | 2010-09-03 | 2012-03-08 | 日本電気株式会社 | 携帯端末およびその表示制御方法 |
JP2012054880A (ja) * | 2010-09-03 | 2012-03-15 | Nec Corp | 携帯端末およびその表示制御方法 |
CN103026315A (zh) * | 2010-09-03 | 2013-04-03 | 日本电气株式会社 | 便携式终端及其显示控制方法 |
WO2012060352A1 (ja) * | 2010-11-02 | 2012-05-10 | 株式会社Jvcケンウッド | タッチパネル処理装置、タッチパネル処理方法、及びプログラム |
WO2012086133A1 (ja) * | 2010-12-20 | 2012-06-28 | パナソニック株式会社 | タッチパネル装置 |
JP2012155491A (ja) * | 2011-01-25 | 2012-08-16 | Nec Personal Computers Ltd | 入力装置 |
JPWO2012102159A1 (ja) * | 2011-01-27 | 2014-06-30 | シャープ株式会社 | 文字入力装置および文字入力方法 |
JP2012168939A (ja) * | 2011-02-11 | 2012-09-06 | Sony Mobile Communications Inc | 情報入力装置 |
US11380334B1 (en) | 2011-03-01 | 2022-07-05 | Intelligible English LLC | Methods and systems for interactive online language learning in a pandemic-aware world |
US11062615B1 (en) | 2011-03-01 | 2021-07-13 | Intelligibility Training LLC | Methods and systems for remote language learning in a pandemic-aware world |
US10019995B1 (en) | 2011-03-01 | 2018-07-10 | Alice J. Stiebel | Methods and systems for language learning based on a series of pitch patterns |
US10565997B1 (en) | 2011-03-01 | 2020-02-18 | Alice J. Stiebel | Methods and systems for teaching a hebrew bible trope lesson |
WO2012161223A1 (ja) * | 2011-05-25 | 2012-11-29 | Necカシオモバイルコミュニケーションズ株式会社 | 入力装置、入力方法およびプログラム |
JP2013041567A (ja) * | 2011-07-21 | 2013-02-28 | Sharp Corp | 文字入力装置 |
JP2012146342A (ja) * | 2012-05-09 | 2012-08-02 | Nec Corp | 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置 |
JP2016514872A (ja) * | 2013-03-22 | 2016-05-23 | ネオペード インコーポレイテッド | 文字入力装置及び文字入力方法 |
US9720518B2 (en) | 2013-03-22 | 2017-08-01 | Neopad, Inc. | Character input apparatus and character input method |
JP2015049861A (ja) * | 2013-09-04 | 2015-03-16 | Necパーソナルコンピュータ株式会社 | 情報処理装置、制御方法、及びプログラム |
US10303359B2 (en) | 2014-03-04 | 2019-05-28 | Omron Corporation | Character input device and information processing device |
EP2916212A1 (en) | 2014-03-04 | 2015-09-09 | Omron Corporation | Character input device and information processing device |
JP2015207143A (ja) * | 2014-04-21 | 2015-11-19 | 富士通株式会社 | 情報処理装置,文字入力プログラム及び文字入力方法 |
Also Published As
Publication number | Publication date |
---|---|
US8949743B2 (en) | 2015-02-03 |
US20090265669A1 (en) | 2009-10-22 |
JP2011138536A (ja) | 2011-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8949743B2 (en) | Language input interface on a device | |
KR101873908B1 (ko) | 휴대용 장치의 사용자 인터페이스 제공 방법 및 장치 | |
USRE46139E1 (en) | Language input interface on a device | |
US9141200B2 (en) | Device, method, and graphical user interface for entering characters | |
US9591221B2 (en) | Magnetic camera component mounting in cameras | |
US8780082B2 (en) | Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor | |
JP2018185846A (ja) | 移動装置のアプリケーション管理のためのユーザインターフェイス | |
EP3005066B1 (en) | Multiple graphical keyboards for continuous gesture input | |
US20160253086A1 (en) | Device, method, and graphical user interface for managing multiple display windows | |
US20120032891A1 (en) | Device, Method, and Graphical User Interface with Enhanced Touch Targeting | |
US20090225034A1 (en) | Japanese-Language Virtual Keyboard | |
KR101317290B1 (ko) | 휴대용 전자 디바이스 및 이것의 제어 방법 | |
JP5777645B2 (ja) | 携帯端末機の文字入力方法及びこれをサポートする携帯端末機 | |
US20140240262A1 (en) | Apparatus and method for supporting voice service in a portable terminal for visually disabled people | |
US11243679B2 (en) | Remote data input framework | |
JP6057441B2 (ja) | 携帯装置およびその入力方法 | |
JP2013171584A (ja) | 多面的なグラフィック・オブジェクトを有する携帯端末及び表示切替方法 | |
US20110014953A1 (en) | User input assembly for an electronic device | |
US11128786B2 (en) | Bending a circuit-bearing die | |
US9996213B2 (en) | Apparatus for a user interface and associated methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20091214 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20091214 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20100115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100125 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20100426 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20100430 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20101124 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20101129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110322 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110720 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110831 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20110905 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20120302 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20121121 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20121127 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20121226 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20130107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130128 |