JP2009266236A - デバイス上の言語入力インターフェース - Google Patents

デバイス上の言語入力インターフェース Download PDF

Info

Publication number
JP2009266236A
JP2009266236A JP2009121397A JP2009121397A JP2009266236A JP 2009266236 A JP2009266236 A JP 2009266236A JP 2009121397 A JP2009121397 A JP 2009121397A JP 2009121397 A JP2009121397 A JP 2009121397A JP 2009266236 A JP2009266236 A JP 2009266236A
Authority
JP
Japan
Prior art keywords
user interface
interface element
gesture
characters
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009121397A
Other languages
English (en)
Inventor
Yasuo Kida
ヤスオ キダ
Deborah Eileen Goldsmith
アイリーン ゴールドスミス デボラ
Elizabeth Caroline Furches
キャロライン ファーチェス エリザベス
Leland Douglas Collins
ダグラス コリンズ リーランド
Ken Kocienda
コシェンダ ケン
Bas Ording
オルディング バス
Toshiyuki Masui
トシユキ マスイ
Yosuke Kurita
ヨースケ クリタ
Shin Nishibori
晋 西堀
Takumi Takano
タクミ タカノ
Hongwei Guo
グオ ホンウェイ
Maria Celia Vigil
セリア ヴィジル マリア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2009266236A publication Critical patent/JP2009266236A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0234Character input methods using switches operable in different directions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】デバイス上の言語入力インターフェースを提供すること。
【解決手段】テキストを入力するための、コンピュータプログラム製品を含む、方法、システム、デバイス、及び装置。ユーザインターフェースエレメントは、デバイスのタッチセンシティブディスプレイ上に呈示される。ユーザインターフェースエレメントは、複数の文字と関連され、その少なくとも1つのサブセットは、それぞれのジェスチャーと関連する。ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力が受信される。ユーザインターフェースエレメントに関して実行されたジェスチャーと関連するサブセットからの文字が入力される。
【選択図】図6

Description

本明細書の内容は、一般に、テキスト入力インターフェースに関する。
従来のコンピュータのキーボードは、携帯電話、マルチメディア・プレーヤ、又は携帯型情報端末(PDA)といった携帯型デバイスには大き過ぎることがある。幾つかの携帯型デバイスは、従来のコンピュータのキーボードの小型形態を含み、又は、ユーザ入力を受け入れるために仮想キーボードを用いる。仮想キーボードは、コンピュータのキーボードをシミュレートするためのソフトウェアアプリケーション又はソフトウェアアプリケーション特徴の形態とすることができる。例えば、タッチセンシティブディスプレイをもつ携帯型デバイスにおいては、仮想キーボードは、仮想キーボードのキーに対応するタッチセンシティブディスプレイの領域を選択する又はタブ送りすることにより、ユーザがテキストを入力するよう用いることができる。
これらの小型キーボード及び仮想キーボードは、1つより多い文字に対応するキーを有することができる。例えば、キーの幾つかは、デフォルトで、例えば、字「a」のような英語の文字に対応することができ、さらに、別の字、又は例えば、文字
Figure 2009266236
のようなアクセントのオプションをもつ別の字、又は他のアクセントのオプションをもつ文字のような、他の付加的な文字に対応することができる。仮想キーボードの物理限度(例えば、サイズ)のために、ユーザは、仮想キーボードでは直ちに使用できない文字をタイプするのは困難であると感じることがある。
米国特許第6,323,846号 米国特許第6,570,557号 米国特許第6,677,932号 米国特許第6,888,536号
多言語環境を有するデバイスの入力方法は、精度及び効率的なワークフローを保証するために、選択された言語に調整される必要があるとすることができる入力及び綴りの修正に関して独特な課題を呈することがある。
一般に、本明細書に説明される内容の一態様は、複数の文字と関連するユーザインターフェースエレメントをタッチセンシティブディスプレイ上に呈示し、複数の文字の少なくとも1つのサブセットの各々はユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、ユーザインターフェースエレメントに関して実行されるジェスチャーと関連するサブセットから文字を入力する、という動作を含む方法において具現することができる。本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。
一般に、本明細書に説明される内容の別の態様は、デバイスのタッチセンシティブディスプレイ上のユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、ユーザインターフェースエレメントは、複数の日本語の仮名記号と関連されており、ユーザインターフェースエレメントに関するジェスチャーに基づいて、複数の日本語の仮名記号の1つを入力するという動作を含む方法において具現することができる。本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。
一般に、本明細書に説明される内容の別の態様は、デバイスのタッチセンシティブディスプレイ上に、各々がそれぞれの複数の文字と関連された複数のユーザインターフェースエレメントを呈示し、ユーザインターフェースエレメントに関する1つ又はそれ以上のジェスチャーを実行するユーザ入力を受信し、ジェスチャーに基づいて、それぞれの複数の文字からの1つ又はそれ以上の誇示を入力するという動作を含む方法において具現することができる。本態様の他の実施形態は、対応するシステム、装置、デバイス、コンピュータプログラム製品、及びコンピュータ可読媒体を含む。
本明細書に説明される内容の特定の実施形態は、以下の利点の1つ又はそれ以上を実現するように実施することができる。記号及び文字は、携帯型デバイス上の仮想キーパッドを用いて、より効率的に入力することができる。マルチタップ文字シーケンスの後の方にある文字は、より迅速に入力することができる。
本明細書に説明される内容の1つ又はそれ以上の実施形態の詳細は、添付図面及び以下の説明に述べられる。内容についての他の特徴、態様、及び利点は、説明、図面及び特許請求の簡易から明らかになるであろう。
例示的なモバイルデバイスのブロック図である。 図1の形態の装置の例示的な実施のブロック図である。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する例示的なユーザインターフェースを示す。 テキストを入力する別の例示的なユーザインターフェースを示す。 テキストを入力する別の例示的なユーザインターフェースを示す。 テキストを入力するさらに別の例示的なユーザインターフェースを示す。 テキストを入力するさらに別の例示的なユーザインターフェースを示す。 テキストを入力するさらに別の例示的なユーザインターフェースを示す。 テキストを入力する例示的なプロセスのフロー図である。 ユーザインターフェースエレメントと関連する文字を示す視覚支援部を示す。 ユーザインターフェースエレメントと関連する文字を示す視覚支援部を示す。
種々の図面における同様な参照番号及び指示は、同様な要素を示す。
例示的なモバイルデバイス
図1は、例示的なモバイルデバイス100のブロック図である。モバイルデバイス100は、例えば、手持ち式コンピュータ、携帯情報端末、携帯電話、ネットワーク機器、カメラ、スマートフォン、高性能汎用パケット無線サービス(EGPRS)携帯電話、ネットワーク基地局、メディアプレーヤ、ナビゲーションデバイス、電子メールデバイス、ゲームコンソール、又はこれらのデータ処理デバイス又は他のデータ処理デバイスのいずれか2つ又はそれ以上の組み合わせとすることができる。
モバイルデバイスの概観
幾つかの実施においては、モバイルデバイス100は、タッチセンシティブディスプレイ102を含む。タッチセンシティブディスプレイ102は、液晶ディスプレイ(LCD)技術、発光ポリマーディスプレイ(LPD)技術、又は何らかの他のディスプレイ技術を実施することができる。タッチセンシティブディスプレイ102は、ユーザとの触覚及び/又は触知接触に敏感であるとすることができる。
幾つかの実施形態においては、マルチタッチセンシティブディスプレイ102は、例えば、圧力、程度、及び/又は各々のタッチ点の位置に関する処理データを含む多数の同時タッチ点を処理することができる。こうした処理は、多数の指によるジェスチャー及び相互作用、コーディング、及び他の相互作用を可能にする。例えば、スタイラス又は他のポインティングデバイスにより接触がなされるディスプレイのような他のタッチセンシティブディスプレイ技術を用いることができる。マルチタッチセンシティブディスプレイ技術の幾つかの例は、特許文献1、特許文献2、特許文献3、及び特許文献4に説明され、この各々は全体が引用により本明細書に組み入れられる。
幾つかの実施においては、モバイルデバイス100は、1つ又はそれ以上のグラフィカルユーザインターフェースをタッチセンシティブディスプレイ102に表示して、ユーザが種々のシステムオブジェクトにアクセスできるようにし、情報をユーザに伝送する。幾つかの実施においては、グラフィカルユーザインターフェースは、1つ又はそれ以上のディスプレイオブジェクト104、106を含むことができる。図示例においては、ディスプレイオブジェクト104、106はシステムオブジェクトの図による表現である。システムオブジェクトの幾つかの例は、デバイス機能、アプリケーション、ウィンドウ、ファイル、アラート、イベント、又は他の識別可能なシステムオブジェクトを含む。
例示的なモバイルデバイスの機能
幾つかの実施においては、モバイルデバイス100は、電話オブジェクト110により示されるテレフォニーデバイス、電子メールオブジェクト112により示される電子メールデバイス、ウェブオブジェクト114により示されるネットワークデータ通信デバイス、Wi−Fi基地局デバイス(図示せず)、及びメディアプレーヤオブジェクト116により示される媒体処理デバイスといった多数のデバイス機能を実施することができる。幾つかの実施においては、例えば、電話オブジェクト110、電子メールオブジェクト112、ウェブオブジェクト114、及びメディアプレーヤオブジェクト116のような特定のディスプレイオブジェクト104は、メニューバー118において表示することができる。幾つかの実施においては、デバイス機能は、図1に示すグラフィカルユーザインターフェースのような上位レベルのグラフィカルユーザインターフェースからアクセスすることができる。オブジェクト110、112、114、又は116の1つを触ることにより、例えば、対応する機能を呼び出すことができる。
幾つかの実施においては、モバイルデバイス100は、ネットワーク分散機能を実施することができる。例えば、この機能により、ユーザはモバイルデバイス100を取り上げ、移動中に、その関連するネットワークに対するアクセスを提供することができる。具体的には、モバイルデバイス100は、近傍の他の無線デバイスに対するインターネットアクセス(例えば、Wi−Fi)を伸ばすことができる。例えば、モバイルデバイス100は、1つ又はそれ以上のデバイスに対する基地局として構成することができる。したがって、モバイルデバイス100は、他の無線デバイスに対するネットワークアクセスを与える又は拒否することができる。
幾つかの実施においては、デバイス機能の呼び出しにより、モバイルデバイス100のグラフィカルユーザインターフェースは変化し、又は、別のユーザインターフェースにより強化されるか又は置き換えられて、対応するデバイス機能と関連する特定の機能に対するユーザのアクセスを可能にする。例えば、ユーザが電話オブジェクト110に触ることに応じて、タッチセンシティブディスプレイ102のグラフィカルユーザインターフェースは、種々の電話機能に関するディスプレイオブジェクトを呈示することができ、同様に、電子メールオブジェクト112を触ることにより、グラフィカルユーザインターフェースは種々の電子メール機能に関するディスプレイオブジェクトを呈示するようになり、ウェブオブジェクト114を触ることにより、グラフィカルユーザインターフェースは、種々のウェブサーフィング機能に関するディスプレイオブジェクトを呈示するようになり、メディアプレーヤオブジェクト116を触ることにより、グラフィカルユーザインターフェースは種々の媒体処理機能に関するディスプレイオブジェクトを呈示するようになる。
幾つかの実施においては、上位レベルのグラフィカルユーザインターフェース環境又は図1の状態は、モバイルデバイス100の底部近くに配置されたボタン120を押下げることにより元に戻すことができる。幾つかの実施においては、各々の対応するデバイス機能は、タッチセンシティブディスプレイ102上に表示される対応する「ホーム」ディスプレイオブジェクトを有することができ、図1のグラフィカルユーザインターフェース環境は「ホーム」ディスプレイオブジェクトを押下げることにより元に戻すことができる。
幾つかの実施においては、上位レベルのグラフィカルユーザインターフェースは、ショートメッセージングサービス(SMS)オブジェクト130、カレンダーオブジェクト132、フォトオブジェクト134、カメラオブジェクト136、計算機オブジェクト138、株式オブジェクト140、天気オブジェクト142、地図オブジェクト144、ノートオブジェクト146、時計オブジェクト148、アドレス帳オブジェクト150、及び設定オブジェクト152といった付加的なディスプレイオブジェクト106を含むことができる。例えば、SMSディスプレイオブジェクト130は、SMSメッセージング環境及び支持機能を呼び出し、同様に、ディスプレイオブジェクト132、134、136、138、140、142、144、146、148、150、及び152は対応するオブジェクト環境及び機能を呼び出すことができる。
付加的な及び/又は異なるディスプレイオブジェクトは、さらに、図1のグラフィカルユーザインターフェースにおいて表示することができる。例えば、デバイス100が他のデバイスの基地局として機能する場合には、1つ又はそれ以上の「接続」オブジェクトがグラフィカルユーザインターフェースに現れて、接続を示すことができる。幾つかの実施においては、ディスプレイオブジェクト106は、ユーザにより構成することができ、例えば、ユーザが、どのオブジェクト106を表示されるか特定することができ、及び/又は、付加的なアプリケーション又は他の機能及び対応するディスプレイオブジェクトを与える他のソフトウェアをダウンロードすることができる。
幾つかの実施においては、モバイルデバイス100は、1つ又はそれ以上の入力/出力(I/O)デバイス及び/又はセンサデバイスを含むことができる。例えば、スピーカー160及びマイクロフォン162は、電話及びボイスメール機能のような音声により可能になる機能を可能にするように含むことができる。幾つかの実施においては、スピーカー160及びマイクロフォン162の音量制御のためのアップ/ダウンボタン184を含むことができる。モバイルデバイス100は、さらに、入ってくる電話のリングインジケータのためのオン/オフボタン182を含むことができる。幾つかの実施においては、スピーカーフォン機能のようなハンズフリー音声機能を可能にするように拡声器164を含むことができる。オーディオジャック166は、さらに、ヘッドフォン及び/又はマイクロフォンの使用のために含むことができる。
幾つかの実施においては、近接センサ168を含んで、ユーザの検出を可能にし、モバイルデバイス100をユーザの耳に近接して位置させ、これに応じて、タッチセンシティブディスプレイ102を切り、偶発的な機能の呼び出しを防ぐことができる。幾つかの実施においては、タッチセンシティブディスプレイ102は、モバイルデバイス100がユーザの耳と近接しているとき、付加的な電力を節約するためにオフにすることができる。
他のセンサを用いることもできる。例えば、幾つかの実施においては、周辺光センサ170を使用して、タッチセンシティブディスプレイ102の明るさの調整を可能にすることができる。幾つかの実施においては、加速計172は、方向指示矢印174により示されるように、モバイルデバイス100の移動を検出するように使用することができる。したがって、ディスプレイオブジェクト及び/又は媒体は、例えば、ポートレイト又はランドスケープのような検出された方位により呈示することができる。幾つかの実施においては、モバイルデバイス100は、グローバルポジショニングシステム(GPS)、又は他のポシショニングシステム(例えば、Wi−Fiアクセスポイント、テレビジョン信号、セルラーグリッド、ユニフォームリソースロケータ(URL)を用いるシステム)により与えられるもののような位置判断機能を支持するための回路及びセンサを含むことができる。幾つかの実施においては、ポジショニングシステム(例えば、GPSレシーバ)は、モバイル装置100に統合してもよいし、又は、インターフェース(例えば、ポートデバイス190)を通してモバイルデバイス100に結合できる別個のデバイスとして与えて、位置ベースのサービスを提供することができる。
幾つかの実施においては、ポートデバイス190、例えば、ユニバーサルシリアルバス(USB)、又はドッキンングポート又は何らかの他の有線ポート接続を含むことができる。ポートデバイス190は、例えば、他の通信デバイス100、ネットワークアクセスデバイス、パーソナルコンピュータ、プリンタ、ディスプレイスクリーン、又はデータを受信及び/又は送信することができる他の処理デバイスのような他のコンピューティングデバイスに対する有線接続を確立するのに使用することができる。幾つかの実施においては、ポートデバイス190は、モバイルデバイス100が、例えば、TCP/IP、HTTP、UDP、及びあらゆる他の既知のプロトコルのような1つ又はそれ以上のプロトコルを用いてホストデバイスと同期することを可能にする。
モバイルデバイス100は、さらに、カメラレンズ及びセンサ180を含むことができる。幾つかの実施においては、カメラレンズ及びセンサ180は、モバイルデバイス100の裏面に配置することができる。カメラは、静止画像及び/又はビデオを捕捉することができる。
モバイルデバイス100は、さらに、802.11b/g、及び/又は、Blurtooth(商標)通信デバイス188といった1つ又はそれ以上の無線通信サブシステムを含むことができる。他の通信プロトコルもまた支持することができ、他の802.x通信プロトコル(例えば、WiMax、Wi−Fi、3G)、カメラレンズ及びセンサ180、広域自動車通信システム(GSM)、高性能データGSM環境(EDGE)等を含む。
例示的なモバイルデバイス構成
図2は、図1のモバイルデバイス100の例示的な実施のブロック図200である。モバイルデバイス100は、メモリインターフェース202、1つ又はそれ以上のデータプロセッサ、画像プロセッサ、及び/又は中央処理装置204、及び周辺装置インターフェース206を含むことができる。メモリインターフェース202、1つ又はそれ以上のプロセッサ204、及び/又は周辺装置インターフェース206は、別個の構成部品であってもよいし、1つ又はそれ以上の集積回路に統合されてもよい。モバイルデバイス100の種々の構成部品は、1つ又はそれ以上の通信バス又は信号ラインにより結合されることができる。
センサ、デバイス、及びサブシステムは、周辺装置インターフェース206に結合されて、多機能を可能にすることができる。例えば、モーションセンサ210、光センサ212、及び近接センサ214は、周辺装置インターフェース206に結合されて、図1に関して説明された方位、照明、及び近接機能を可能にすることができる。ポジショニングシステム(例えば、GPSレシーバ)、温度センサ、バイオメトリックセンサ、又は関連する機能を可能にするための他の感知デバイスのような他のセンサ216もまた周辺装置インターフェース206に接続することができる。
カメラサブシステム220及び光センサ222、例えば、荷電結合素子(CCD)又は相補型金属酸化膜半導体(CMOS)光センサを使用して、写真及びビデオクリップの記録といったカメラ機能を可能にすることができる。
通信機能は、1つ又はそれ以上の無線通信サブシステム224を通して可能になり、無線周波数レシーバ及びトランスミッタ及び/又は光(例えば、赤外線)レシーバ及びトランスミッタを含むことができる。通信サブシステム224の特定の設計及び実施は、携帯デバイス100が動作することが意図される通信ネットワークに依存することがある。例えば、モバイルデバイス100は、GSMネットワーク、GPRSネットワーク、EDGEネットワーク、Wi−Fi又はWiMaxネットワーク、及びBluetooth(商標)ネットワーク上で動作するように設計された通信サブシステム224を含むことができる。具体的には、無線通信システム224は、デバイス100を他の無線デバイスの基地局として構成することができるようにホストプロトコルを含むことができる。
オーディオサブシステム226は、スピーカー228及びマイクロフォン230に結合して、音声認識、音声再現、デジタル録音、及びテレフォニー機能といった音声により可能になる機能を可能にすることができる。
I/Oサブシステム240は、タッチスクリーンコントローラ242及び/又は他の入力コントローラ244を含むことができる。タッチスクリーンコントローラ242は、タッチスクリーン246に結合することができる。タッチスクリーン246及びタッチスクリーンコントローラ242は、例えば、容量性、抵抗性、赤外線、及び表面音波技術、並びに、他の近接センサアレイ又はタッチスクリーン246との1つ又はそれ以上の接触点を求めるための他の要素を含むがこれらに限られるものではない複数のタッチセンス技術のいずれかを用いて、その接触及び移動又は遮断を検出することができる。
他の入力コントローラ244は、1つ又はそれ以上のボタン、ロッカースイッチ、サムホイール、赤外線ポート、USBポート、及び/又はスタイラスのようなポインティングデバイスといった他の入力/制御デバイスに結合することができる。1つ又はそれ以上のボタン(図示せず)は、スピーカー228及び/又はマイクロフォン230の音量制御のためにアップ/ダウンボタンを含むことができる。
1つの実施においては、第1の持続時間においてボタンを押下げることにより、タッチスクリーン246のロックが外れることになり、第1の持続時間より長い第2の持続時間においてボタンを押下げることにより、モバイルデバイス100への電力をオン又はオフにすることができる。ユーザは、ボタンの1つ又はそれ以上の機能をカスタマイズすることができる。タッチスクリーン246はまた、例えば、仮想又はソフトボタン及び/又はキーボードを実施するのに用いることができる。
幾つかの実施においては、モバイルデバイス100は、MP3、AAC、及びMPEGファイルといった記録されたオーディオ及び/又はビデオファイルを呈示することができる。幾つかの実施においては、モバイルデバイス100は、iPod(商標)のようなMP3プレーヤーの機能を含むことができる。モバイルデバイス100は、したがって、iPodと互換性がある30ピンのコネクタを含むことができる。他の入力/出力及び制御デバイスもまた用いることができる。
メモリインターフェース202は、メモリ250に結合することができる。メモリ250は、高速ランダムアクセスメモリ及び/又は不揮発性メモリ、例えば、1つ又はそれ以上の磁気ディスクストレージデバイス、1つ又はそれ以上の光ストレージデバイス、及び/又はフラッシュメモリ(例えば、NAND、NOR)を含むことができる。メモリ250は、Darwin、RTXC、LINUX、UNIX、OS X、WINDOWS、又はVxWorksといった埋め込まれたオペレーティングシステムといったオペレーティングシステム252を格納することができる。オペレーティングシステム252は、基本システムを扱うため及びハードウェア依存タスクを実行するための命令を含むことができる。幾つかの実施においては、オペレーティングシステム252は、カーネル(例えば、UNIXカーネル)とすることができる。
メモリ250は、さらに、通信命令254を格納して、1つ又はそれ以上の付加的なデバイス、1つ又はそれ以上のコンピュータ、及び/又は1つ又はそれ以上のサーバとの通信を可能にすることができる。メモリ250は、グラフィカルユーザインターフェース命令256を含んでグラフィックユーザインターフェース処理を可能にし、センサ処理命令を含んでセンサ関連の処理及び機能を可能にし、電話命令260を含んで電話関連の処理及び機能を可能にし、電子メッセージング命令262を含んで電子メッセージング関連の処理及び機能を可能にし、ウェブ閲覧命令264を含んでウェブ閲覧関連の処理及び機能を可能にし、媒体処理命令266を含んで媒体処理関連の処理及び機能を可能にし、GPS/ナビゲーション命令268を含んでGPS及びナビゲーション関連の処理及び命令を可能にし、カメラ命令270を含んでカメラ関連の処理及び機能を可能にし、及び/又は他のソフトウェア命令272を含んで、例えばセキュリティ処理及び機能のような処理及び機能を可能にすることができる。メモリ250は、さらに、ウェブビデオ命令のような他のソフトウェア命令(図示せず)を格納して、ウェブビデオ関連の処理及び機能を可能にすることができ、及び/又は、ウェブショッピング命令を格納して、ウェブショッピング関連の処理及び機能を可能にすることができる。幾つかの実施においては、媒体処理命令266は、オーディ処理命令とビデオ処理命令とに分けられて、それぞれオーディオ関連の処理及び機能と、ビデオ処理関連の処理及び機能とを可能にする。作動記録及び国際移動体装置識別子(IMEI)274又は同様なハードウェア識別子もまたメモリ250内に格納することができる。
言語データ276は、さらに、メモリ250内に格納することができる。言語データ276は、例えば、1つ又はそれ以上の言語に対する言葉の辞書(すなわち、言語における可能性がある用語のリスト)を含むことができ、文字及び対応する音声学の辞書、1つ又はそれ以上の文字及び文字の複合物のコーパス等を含むことができる。
上で識別された命令及びアプリケーションの各々は、上述の1つ又はそれ以上の機能を実行するための一組の命令に対応するとすることができる。これらの命令は、別個のソフトウェアプログラム、処置、又はモジュールとして実施される必要はない。メモリ250は、付加的な命令又はより少ない命令を含むことができる。さらに、モバイルデバイス100の種々の機能は、1つ又はそれ以上の信号処理及び/又は特殊用途向け集積回路を含むハードウェア及び/又はソフトウェアにおいて実施することができる。
テキスト入力インターフェース
図3Aから図3Eは、テキストをモバイルデバイス100に入力する又は入れるための例示的なユーザインターフェースを示す。モバイルデバイス100は、テキスト呈示領域302及びテキスト入力領域301をタッチセンシティブディスプレイ102上に表示することができる。テキスト呈示領域302は、例えば、ノート取りアプリケーション、電子メールアプリケーションなど、入力テキストを表示又は呈示することができるどのような領域であってもよい。幾つかの実施においては、テキスト呈示領域302は、1つ又はそれ以上のテキストフィールド(例えば、ウェブページにおけるテキストフィールド)である。
テキスト入力領域301は、ユーザにより、時、数、記号、文字等(以下では、便宜上、集合的に「文字」と呼ぶ)をモバイルデバイス100上に入れるように用いることができる1つ又はそれ以上のユーザインターフェースエレメントを含む。幾つかの実施においては、ユーザインターフェースエレメントは、各々が1つ又はそれ以上の文字と関連する1つ又はそれ以上の仮想キー304を含むことができる。
テキスト入力領域301は、他のユーザインターフェースエレメントを含むことができる。テキスト入力領域301に含むことができる他のユーザインターフェースエレメントの例は、1つ又はそれ以上の言語のために入力ユーザインターフェースを切り換える入力方法切り換えキー316(例えば、QWERTYキーボード、手書き認識等)、数及び関連する記号を入力するためにキーパッドに切り換えるためのナンバーパッドキー318(例えば、数学的な記号)、分音記号及び他の音の修正を入力するための音修正キー320(例えば、日本語の濁点、半濁点、及び小さい「っ」)、言語特有の句読点を入力するための言語特有句読点キー322(例えば、日本語の句読点)、入力したテキストを削除するためのデリート/バックスペースキー324、テキスト入力における現行で作動されている文字を受け入れる(随意的に白色のスペースを入力する)ための「次」キー326、及び改行を入力するためのリターンキー328を含む。他のユーザインターフェースエレメントが可能である。例えば、現行の入力ストリングを完成させる又は置き換える候補となるリストを持ち出すための候補キー(例えば、候補キー330、図7)を含むことができる。別の例として、記号、顔文字などのリストを持ち出すためのキーを含むことができる。
複数の文字と関連する仮想キー304においては、キーと関連する文字をマルチタップすることにより入力することができる。例えば、ユーザは、連続して仮想キーをタッピングして、所定の順番で文字を循環させることができる。ユーザが仮想キーをタッピングして文字を循環させるとき、現行で作動されている文字がテキスト呈示領域302に表示されることになる。現行で作動されている文字を受け入れるために、ユーザは、所定の時間の量が経過するまでキーのタッピングを停止し、異なる文字キーをタッピングすることができ(例えば、別の文字の組を循環させるために)又は、現行で作動されている文字を受け入れる機能を含む別のキーをタッピングする(例えば、「次」キー326をタッピングする)。したがって、文字は、スタンバイ状態からのタップ数又は仮想キー上のゼロタップ計数に基づいて入力することができる。
幾つか実施においては、マルチタップ順のトグルキー(図示せず)を含むことができる。ユーザは、マルチタップ順のトグルキーを用いて、キーの文字順を逆にして通常は順番の末端にあり、したがって、入力するのに幾つかのタップが必要になる文字を、1つ又は少ないタップにより入力できるようにする。再びキーをタッピングすることにより、文字の順番は元の順番に戻る。
幾つか実施においては、仮想キー304の各々は、1つ又はそれ以上の日本語の仮名記号又は仮名記号により表わすことができる基本的な日本語の音と関連される。例えば、1つのキーは、あ、い、う、え、お、と関連させることができ、別のキーは、か、き、く、け、こ、と関連させることができ、以下同様である。幾つか実施においては、仮想キー304は、仮名の五十音の順番により、仮名記号と関連させられる。
仮想キー304に対する仮名記号は、マルチタップを用いて入力することができ、ユーザは、五十音の順番で、そのキーに対する仮名機能を循環させるように連続してキーをタッピングすることができる。例えば、図3Bにおいては、ユーザは、キー306の場合には、仮名、あ、い、う、え、お、であるキーに関連する仮名記号を循環させるように連続してキー306をタッピングすることができる。キー306を一度タッピングすると、あ、が入力され(テキスト呈示領域302において現行の入力303として示される)、キー306を連続してタッピングすると、い、が入力され、以下同様である。
幾つか実施においては、ユーザは、ユーザインターフェースエレメントに対してジェスチャーを実行することにより、並びに、マルチタップにより、ユーザインターフェースエレメント(例えば、仮想キー304)と関連する文字の少なくとも幾つかを入力することができる。例えば、仮想キーと関連する文字の1つ又はそれ以上の各々は、仮想キーに対して実行することができるそれぞれのジェスチャーと関連することができる。ユーザは、特定の仮想キーに対して対応するジェスチャーを実行することにより、特定の文字を入力することができる。
幾つか実施においては、それぞれのジェスチャーは、仮想キーからの異なる方向におけるフリックである。仮想キーにおいては、ユーザインターフェースエレメントと関連する文字は、ユーザインターフェースエレメントに関するそれぞれのフリック方向に割り当てることができる。ユーザインターフェースエレメントに対する特定の方向におけるフリックは、ユーザインターフェースエレメントに関連する、及び、その方向に割り当てられた文字を選択する。
例えば、仮想キー306においては、ユーザは図3Cに示すように仮想キー306の初期位置(点線で示す)からタッチセンシティブディスプレイ102上で北方向にフリックすることにより、仮名記号、い、を入力することができる。ユーザは、仮想キー306の初期位置からタッチセンシティブディスプレイ102上で東方向にフリックすることにより、仮名記号、う、を入力することができる。ユーザは、仮想キー306の初期位置からタッチセンシティブディスプレイ102上で南方向にフリックすることにより、仮名記号、え、を入力することができる。ユーザは、仮想キー306の初期位置からタッチセンシティブディスプレイ102上で西方向にフリックすることにより、仮名記号、お、を入力することができる。
幾つかの実施においては、文字に対するジェスチャー方向を示す視覚支援部は、仮想キーが触れられて少なくとも所定の時間の量(例えば、1秒)だけ保持された場合に表示される。例えば、仮想キー306が少なくとも1秒だけ保持された場合には、図3Dに示すように、視覚支援部308が表示される。視覚支援部308は、仮想キー306においては、い、は北方向のフリックにより入力することができ、う、は東方向のフリック、え、は南方向のフリック、及び、お、は西方向のフリックにより入力することができることを示す。
さらに別の視覚支援部の例が図7及び図8に示される。図7においては、仮想キーの初期位置から文字が放射する状態を示す。図8においては、第2の仮想キーが仮想キーの初期位置を取り囲む。
幾つかの実施においては、仮想キーが保持され、視覚支援部が表示されると、ユーザは、視覚支援部における望ましい文字をタッピングすることにより、(例えば、仮想キーを放し、次いで視覚支援部が視界から消える前に視覚支援部における文字をタッピングすることにより)、及び/又は、タッチセンシティブディスプレイ上で、仮想キーから、視覚支援部における望ましい文字に指をスライドさせることにより、視覚支援部に示される文字を入力することができる。したがって、図3Dにおいては、ユーザは、例えば、視覚支援部308における二次キー309をタッピングすることにより、及び/又は、タッチセンシティブディスプレイ102上でキー306から二次キー309に指をスライドさせ、次いで放すことにより、い、を入力することができる。
幾つかの実施においては、仮想キー(又は何らかのユーザインターフェースエレメント)は、例えば、図3Cに示すように、フリック又はジェスチャーと共に移動するように表示される。幾つかの他の実施形態においては、仮想キー又はユーザインターフェースエレメントは、所定の位置に留まる。
幾つかの実施においては、ユーザが、仮想キーに対してフリックを実行したときには、仮想キーは、フリックに応じて回転する三次元オブジェクトであるかのように表示することができる。例えば、図3Eにおいては、ユーザは、仮想キー306から左にフリックを実行する。仮想キー306は、例えば、フリックの方向において回転し、その面はキーに関連する文字を示す立方体又は矩形プリズムとして表示される。したがって、図3Eにおいては、仮想キー306は、時計回り方向に回転する状態が示され、回転軸はタッチセンシティブディスプレイ102に対して垂直方向に平行であり、仮名記号、お、を示す面を見せている。
より一般的には、ユーザインターフェースエレメントは、ジェスチャーに応じたアニメーション又は他の視覚効果により表示されることができる。アニメーションの例は、上述のように、限定されるものではないが、ジェスチャーと共に移動する、又は、ジェスチャーに応じて空間で回転するユーザエレメントを含む。他の視覚効果は、例えば、図3Fに示すように、確認として、入力した文字を示すポップアップを含むことができる。
図4A及び図4Bは、テキストを入力するための別の例示的なユーザインターフェースを示す。図4A及び図4Bに示すインターフェースは、図3Aから図3Eに示すインターフェースと同様なものであるが、ジェスチャーを用いて入力することができるより小さい文字のサブセットをもっている。例えば、仮名、あ、い、う、え、お、と関連する仮想キー402においては、え、及び、お、は、ジェスチャー(例えば、フリッキング)又はマルチタップにより入力することができ、他の仮名は、マルチタップにより入力される。したがって、図4Aにおいては、キー402を保持することにより視覚支援部404は、図3Dにおける、い、う、え、お、とは異なり、え、及び、お、を示す。図4Bにおいては、お、は、仮想キー402から西方向にフリックすることにより入力される。お、は、現行の入力として示される。
複数の文字と関連する仮想キー304においては、仮想キー304と関連する複数の文字の所定の数は、実施に応じて、ジェスチャーを用いて、並びに、又は、マルチタップを用いる代わりに、入力できることが理解されるべきである。例えば、幾つかの実施においては、仮想キー304に関連する文字のすべては、ジェスチャー及びマルチタップを用いて入力することができる。幾つかの他の実施においては、仮想キー304と関連する文字のすべてより少ないものを、ジェスチャー及びマルチタップを用いて入力することができ、幾つかは、マルチタップのみを用いて入力することができる。
図5Aから図5Cは、テキストを入力するためのさらに別の例示的なユーザインターフェースを示す。図5Aは、ジェスチャー(例えば、異なる方向におけるフリック)を用いて文字を入力するための複数のユーザインターフェースエレメント502を含むテキスト入力領域301を示す。幾つかの実施においては、ユーザインターフェースエレメント502は、ジョイスティックと似ており、そのように動く。例えば、ユーザインターフェースエレメント504は、あ、い、う、え、お、と関連しており、ユーザは、異なる方向におけるフリックを実行することにより、関連する仮名を入力することができる。
幾つかの実施においては、ユーザインターフェースエレメント502に関連する文字(例えば、仮名)を示し、対応するジェスチャー方向を示す視覚支援部を、ユーザインターフェースエレメント502と共に示すことができる。例えば、視覚支援部506は、ユーザインターフェースエレメント504と共に表示される。
ユーザは、ユーザインターフェースエレメント502の初期位置からフリックを実行することにより、文字を入力することができる。例えば、図5Bにおいては、ユーザは、ユーザインターフェースエレメント504から水平西方向にフリックすることにより、仮名、あ、を入力することができる。入力された仮名、あ、は、現行の入力303として示される。図5Cにおいては、ユーザは、ユーザインターフェースエレメント504から北方向の角度で、西方向にフリックすることにより、仮名、い、を入力することができ、現行の入力303は、入力された仮名を示すように更新される。幾つかの実施においては、ユーザインターフェースエレメントは、フリックと共に移動するように表示される。したがって、例えば、ユーザが上述のようにユーザインターフェースエレメント504に対するフリックを実行するとき、ユーザインターフェースエレメント504は、ジョイスティックであるかのように、フリックの動きと共に移動する。幾つかの他の実施においては、ユーザインターフェースエレメントは、所定の位置に留まる。
幾つかの実施においては、デバイス100は、上述の実施のいずれにおいては、現行のテキスト入力303において仮名ストリングに対する候補リストを表示する。候補リストは、例えば、読みとしてその仮名ストリングを有する先頭の漢字の文字を含む用語又は句を含むことができる。候補リストは、例えば、テキスト呈示領域302及び/又はテキスト入力領域301において表示することができる。
上述の実施に関して説明されたように、ユーザインターフェースエレメント(例えば、仮想キー304又はエレメント502)は、ユーザインターフェースエレメントから異なる方向において外方に放射するオプションのジェスチャーベースのメニューを表わすものとして概念化することができ(例えば、パイメニューのように)、メニューにおけるオプションは文字とすることができ、ジェスチャーを用いて作動させることができる。メニューは、360度にわたるものであってもよいし、又は、360度より少ないところに制限されてもよい。メニューオプションは、使用可能な方向のすべて又はそれより少ないものを使い果たすことができる。例えば、5つの文字と関連するユーザインターフェースエレメントは、ユーザインターフェースエレメントに対して主要な方向(北、南、東、及び西)及び北西方向に割り当てられた文字を有することができ、南西、北東、及び南東方向は、空のままとすることができる。
上述の方向の割り当ては、例示的なものに過ぎないことが理解されるべきである。一般に、ユーザインターフェースエレメントと関連する文字は、任意に、あらゆる順番で、予め割り当てられた方向とすることができる。幾つかの実施においては、ユーザインターフェースエレメントに対するジェスチャー方向を割り当てる慣例は、ユーザインターフェースエレメントの文字の順番における最初の文字は、特定の方向に割り当てられることである(例えば、図7においては西、図8においては北西)。ユーザインターフェースエレメントの残りの文字は、次いで、例えば、図7及び図8に示すように、時計回り方向に進む順番で割り当てられる。
図6は、テキストを入力するための例示的なプロセス600のフロー図である。便宜上、プロセス600は、プロセス600を実施するデバイス(例えば、デバイス100)に関して説明される。
複数の文字と関連するユーザインターフェースエレメントが呈示され、複数の文字の少なくとも1つのサブセットの各々は、ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連される(602)。デバイス100は、例えば、ユーザインターフェースエレメント(例えば、仮想キー306、オブジェクト504)を表示することができる。ユーザインターフェースエレメントは、複数の文字と関連されており、その1つ又はそれ以上の各々は、ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連されている。例えば、ユーザインターフェースエレメントは、複数の仮名記号と関連させることができ、これらの記号の1つ又はそれ以上の各々は、ユーザインターフェースエレメントからの異なる方向におけるフリックジェスチャーと関連させることができる。幾つかの実施においては、フリックジェスチャーの異なる方向及び対応する文字を示す視覚支援部を表示することができる。視覚支援部は、デフォルトにより、又は、ユーザ入力に応じて(例えば、仮想キーを保持するような)表示することができる。
ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力が受信される(604)。デバイス100は、例えば、ユーザインターフェースエレメントに関するフリッキングジェスチャーに対応するタッチセンシティブディスプレイ102上への接触を受信し、検出することができる。入力される文字は、始点に対する経路及びその経路の角度に基づくとすることができる。
ユーザインターフェースエレメントに関して実行されるジェスチャーに関連する文字が入力される(606)。ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する文字は、現行のテキスト入力に示される。例えば、特定の方向において実行されるフリックと関連する仮名記号が入力され、現行のテキスト入力に示される。
幾つかの実施においては、ジェスチャーにより選択される文字は、ジェスチャーの始点に対するジェスチャーにより取られる経路に基づく。例えば、フリッキングジェスチャーは、始点及び終点をもつ経路を辿ることができる。始点は、ユーザインターフェースエレメントの中心にある必要はない。幾つかの実施においては、始点に対する経路の方向は、入力される文字を決定する。
幾つかの実施においては、ユーザインターフェースエレメントと関連する複数の文字の少なくとも幾つかは、マルチタップにより入力することができる。例えば、ユーザインターフェースエレメント上での連続する1つ又はそれ以上のタップは、デバイス100により検出することができ、複数の文字の1つは、タップに基づいて入力され、さらに具体的には、スタンバイ状態又はゼロタップ計数から連続するタップの数に基づいて入力される。例えば、あ、い、う、え、お、に関連するユーザインターフェースエレメントにおいては、あ、はタップが1つあった場合に入力され、い、はタップが2つあった場合に入力され、以下同様である。
幾つかの実施においては、ユーザインターフェースエレメントは、ジェスチャーに応じて、アニメーションにより表示することができ、又は、他の視覚効果を表示することができる。例えば、ユーザインターフェースエレメントは、フリッキングジェスチャーに応じて、フリッキングジェスチャーと共に移動するように表示することができる。別の例として、ユーザインターフェースエレメントは、フリッキングジェスチャーに応じて、空間において回転する三次元オブジェクトとして表示することができる。
幾つかの実施においては、候補リストは、現行のテキスト入力におけるストリングに対して表示することができる。候補リストは、ストリングに対する1つ又はそれ以上の候補となる置き換えを含むことができる。候補となる置き換えの異なる種類が可能であり、候補となる置き換えの種類は、辞書に基づいて提案される綴りの修正、オートコンプリート特徴により提案される用語、読みとして仮名が入力されたストリングを有する漢字等を含む。ユーザは、例えば、入力されたストリングをそのまま受け入れてもよいし、候補となる置き換えを選択してもよいし、ストリングを編集してもよい。
上述の実施は日本語テキストの入力に関して説明されるが、上述の実施は、他の言語と用いられるように適応させることができることが理解されるべきである。
開示される及び他の実施形態、及び、本明細書において説明される機能動作は、デジタル電子回路において、又は、ソフトウェア、ファームウェア、又は本明細書に開示される構造体を含むハードウェア及びその構造的な等価物、又は、これらの1つ又はそれ以上の組み合わせにおいて実施することができる。開示される及び他の実施形態は、1つ又はそれ以上のコンピュータプログラム製品として実施することができ、すなわち、データ処理装置により実行するために、又はその動作を制御するために、コンピュータ可読媒体上にエンコードされたコンピュータプログラム命令の1つ又はそれ以上のモジュールとして実行することができる。コンピュータ可読媒体は、機械可読ストレージデバイス、機械可読ストレージ基板、メモリデバイス、機械可読伝播信号を生じさせる物質の組成、又はこれらの1つ又はそれ以上の組み合わせとすることができる。「データ処理装置」という用語は、一例として、プログラム可能プロセッサ、コンピュータ、又は多プロセッサ或いはコンピュータを含む、データを処理するためのすべての装置、デバイス、及び機械を含む。装置は、ハードウェアに加えて、当該コンピュータプログラムの実行環境を生成するコード、例えば、プロセッサのファームウェア、プロトコルスタック、データベース管理システム、オペレーティングシステム、又はこれらの1つ又はそれ以上の組み合わせを含むことができる。伝播信号は、送信のために好適なレシーバ装置への情報をエンコードするように生成された、人為的に生成された信号、例えば、機械生成電気信号、光信号、又は電磁信号である。
コンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、又はコードとしても知られる)は、コンパイルされた又は翻訳された言語を含むプログラミング言語のあらゆる形態で書くことができ、スタンドアローンプログラムとして、又は、モジュール、コンポーネント、サブルーチン、又はコンピューティング環境において用いるのに適した他のユニットとして含まれる、あらゆる形態で配置することができる。コンピュータプログラムは、ファイルシステムにおけるファイルに必ずしも対応するものではない。プログラムは、当該プログラム専用の単一のファイルにおいて、又は、多数の調整されたファイル(例えば、1つ又はそれ以上のモジュール、サブプログラム、又はコードの部分を格納するファイル)において、他のプログラム又はデータ(例えば、マークアップ言語文書に格納された1つ又はそれ以上のスクリプト)を保持するファイルの一部に格納することができる。コンピュータプログラムは、1つのコンピュータ上で、又は、1つの場所又は多数の場所にわたり分散され、通信ネットワークにより相互接続された多数のコンピュータ上で実行されるように配置することができる。
本明細書において説明されるプロセス及び論理フローは、入力データ上で動作することにより機能を実行し、出力を生成する1つ又はそれ以上のコンピュータプログラムを実行する1つ又はそれ以上のプログラム可能プロセッサにより実行することができる。プロセス及び論理フローは、さらに、例えば、FPGA(フィールド・プログラマブル・ゲート・アレイ)又はASIC(特定用途向け集積回路)のような特殊論理回路により実行することができ、装置は、さらに、こうした特殊論理回路として実施することができる。
コンピュータプログラムの実行に適したプロセッサは、一例として、汎用及び特殊マイクロプロセッサの両方、及び、あらゆる種類のデジタルコンピュータのあらゆる1つ又はそれ以上のプロセッサを含む。一般に、プロセッサは、読み出し専用メモリ又はランダムアクセスメモリ又はその両方から命令及びデータを受信する。コンピュータに欠かすことのできない要素は、命令を実行するプロセッサと、命令及びデータを格納するための1つ又はそれ以上のメモリデバイスである。一般に、プロセッサは、さらに、例えば、磁気、光磁気ディスク、又は光ディスクのような、データを格納するための1つ又はそれ以上の大容量ストレージデバイスを含むか、又は、データを受信する又はデータを送信する、又はこの両方のために、この大容量ストレージデバイスに動作可能に結合される。しかし、コンピュータはこうしたデバイスを必ずしももたなくてもよい。コンピュータプログラム命令及びデータを格納するのに適したコンピュータ可読媒体は、一例として、例えば、EPROM、EEPROM、及びフラッシュメモリデバイスのような半導体メモリデバイス、例えば、内部ハードディスク又はリムーバブルディスクのような磁気ディスク、光磁気ディスク、及びCD−ROM及びDVD−ROMディスクを含む、すべての形態の不揮発性メモリ、媒体及びメモリデバイスを含む。プロセッサ及びメモリは、特殊論理回路により補完されることができ、又はこの中に組み込まれることができる。
ユーザとの相互作用を提供するために、開示される実施形態は、情報をユーザに表示するために、例えば、CRT(カソードアレイチューブ)、又はLCD(液晶ディスプレイ)モニタのようなディスプレイデバイスと、ユーザがコンピュータに入力を行うことができるキーボードと、例えば、マウス又はトラックボールのようなポインティングデバイスとを有するコンピュータ上で実施することができる。他の種類のデバイスを用いても、ユーザとの相互作用を提供することができ、例えば、ユーザに与えられるフィードバックは、例えば、視覚フィードバック、聴覚フィードバック、触覚フィードバックのようなあらゆる形態の感覚フィードバックのあらゆる形態とすることができ、ユーザからの入力は、音、スピーチ、又は触覚入力を含むあらゆる形態で受信することができる。
開示される実施形態は、例えば、データサーバとしてバックエンドコンポーネントを含む、又は、例えばアプリケーションサーバのようなミドルウェアコンポーネント、又は、例えばユーザが、ここに開示されるものの実施形態と対話することができるグラフィカルユーザインターフェース又はウェブブラウザを有するクライアントコンピュータのようなフロントエンドコンポーネント、又は、1つ又はそれ以上のこうしたバックエンド、ミドルウェア、又はフロントエンドコンポーネントの組み合わせを含むコンピューティングシステムにおいて実施することができる。システムのコンポーネントは、例えば、通信ネットワークのようなあらゆる形態又は媒体のデジタルデータ通信により相互接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)及び、例えばインターネットのようなワイドエリアネットワーク(「WAN」)を含む。
本明細書は、多数の特定のものを含むが、これらは、特許請求される又は特許請求されることができる範囲に対する制限として解釈されるべきではなく、特定の実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態の内容において、本明細書に説明される特定の特徴は、さらに、単一の実施形態において組み合わせて実施することができる。対照的に、単一の実施形態の内容において説明される種々の特徴は、さらに、多数の実施形態において、又はあらゆる好適な小結合において実施することができる。さらに、特徴は、特定の組み合わせにおいて作用するように上述され、さらに最初に、そのように特許請求されることがあるが、特許請求される組み合わせからの1つ又はそれ以上の特徴は、幾つかの場合においては、その組み合わせから実行されることができ、特許請求される組み合わせは、小結合又は様々な小結合に向けられることができる。
同様に、動作は、特定の順番で図示されるが、このことは、望ましい結果を実現するために、こうした動作が、示される特定の順番で又は逐次的な順番で実行され、又は、それらのすべての図示される動作が実行されることを必要とするように理解されるべきではない。特定の状況においては、マルチタスキング及び並行処理が有利とすることができる。さらに、上述の実施形態における種々のシステムコンポーネントの分離は、すべての実施形態においてこうした分離が必要になると理解されるべきではなく、説明されたプログラムコンポーネント及びシステムは、一般に、単一のソフトウェア製品に共に統合されるか、又は、多数のソフトウェア製品にパッケージ化されることができると理解されるべきである。
本明細書に説明される特定の実施形態が説明された。他の実施形態は、特許請求の範囲内にある。例えば、特許請求の範囲に挙げられた動作は、異なる順番で実行し、依然として望ましい結果を実現することができる。一例として、添付図面に示されるプロセスは、望ましい結果を実現するために、必ずしも、示される特定の順番又は逐次的な順番を必要とするものではない。特定の実施においては、マルチタスキング及び並列処理が有利とすることができる。
100:モバイルデバイス
102:タッチセンシティブディスプレイ
104、106:ディスプレイオブジェクト
204:プロセッサ
250:メモリ

Claims (15)

  1. 複数の文字と関連するユーザインターフェースエレメントをタッチセンシティブディスプレイ上に呈示し、
    前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
    前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
    前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する
    ステップを含むことを特徴とする方法。
  2. 前記複数の文字は、日本語の仮名記号を含むことを特徴とする請求項1に記載の方法。
  3. 前記ユーザインターフェースエレメントは仮想キーであることを特徴とする請求項1に記載の方法。
  4. 前記仮想キーを1度又はそれ以上タッピングして入力を受信し、
    前記仮想キーの前記タッピングに基づいて、前記複数の文字の1つを入力する
    ステップをさらに含むことを特徴とする請求項3に記載の方法。
  5. 前記ユーザインターフェースエレメントに関する前記それぞれのジェスチャーは、前記タッチセンシティブディスプレイ上の前記ユーザインターフェースエレメントに関するフリックを含むことを特徴とする請求項1に記載の方法。
  6. 前記複数の文字の前記サブセットの各々は、前記ユーザインターフェースエレメントに対するそれぞれの方向におけるフリックと関連されることを特徴とする請求項5に記載の方法。
  7. 前記それぞれのフリックに対する前記それぞれの方向を示す資格支援部を呈示するステップをさらに含むことを特徴とする請求項6に記載の方法。
  8. 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップをさらに含むことを特徴とする請求項1に記載の方法。
  9. 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記ジェスチャーに応じて、前記ユーザインターフェースエレメントを回転する三次元オブジェクトとして呈示するステップを含むことを特徴とする請求項8に記載の方法。
  10. 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記ユーザインターフェースエレメントが前記ジェスチャーと共に移動するように呈示するステップを含むことを特徴とする請求項8に記載の方法。
  11. 前記ジェスチャーに応じて、前記ユーザインターフェースエレメントにアニメーションを呈示するステップは、前記入力された文字を示す確認ポップアップを呈示するステップを含むことを特徴とする請求項8に記載の方法。
  12. タッチセンシティブディスプレイと、
    メモリと、
    1つ又はそれ以上のプロセッサと、
    前記メモリ内に格納され、前記1つ又はそれ以上のプロセッサにより実行されるように構成された命令と、
    を含み、前記命令は、
    複数の文字と関連するユーザインターフェースエレメントをデバイスのタッチセンシティブディスプレイ上に呈示し、
    前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
    前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
    前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する、
    命令を含むことを特徴とする携帯型デバイス。
  13. 有形プログラムキャリア上でエンコードされ、携帯型デバイスが、
    複数の文字と関連するユーザインターフェースエレメントをデバイスのタッチセンシティブディスプレイ上に呈示し、
    前記複数の文字の少なくとも1つのサブセットの各々は前記ユーザインターフェースエレメントに関するそれぞれのジェスチャーと関連しており、
    前記ユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
    前記ユーザインターフェースエレメントに関して実行されるジェスチャーと関連する前記サブセットから前記文字を入力する、
    ことを含む動作を実行させるようにすることができることを特徴とするコンピュータプログラム製品。
  14. デバイスのタッチセンシティブディスプレイ上のユーザインターフェースエレメントに関するジェスチャーを実行するユーザ入力を受信し、
    前記ユーザインターフェースエレメントは、複数の日本語の仮名記号と関連されており、
    前記ユーザインターフェースエレメントに関する前記ジェスチャーに基づいて、前記複数の日本語の仮名記号の1つを入力する
    ステップを含むことを特徴とする方法。
  15. デバイスのタッチセンシティブディスプレイ上に、各々がそれぞれの複数の文字と関連された複数のユーザインターフェースエレメントを呈示し、
    前記ユーザインターフェースエレメントに関する1つ又はそれ以上のジェスチャーを実行するユーザ入力を受信し、
    前記ジェスチャーに基づいて、前記それぞれの複数の文字からの1つ又はそれ以上の誇示を入力する
    ステップを含むことを特徴とする方法。
JP2009121397A 2008-04-22 2009-04-22 デバイス上の言語入力インターフェース Pending JP2009266236A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US12/107,711 US8949743B2 (en) 2008-04-22 2008-04-22 Language input interface on a device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011035538A Division JP2011138536A (ja) 2008-04-22 2011-02-22 デバイス上の言語入力インターフェース

Publications (1)

Publication Number Publication Date
JP2009266236A true JP2009266236A (ja) 2009-11-12

Family

ID=41202163

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2009121397A Pending JP2009266236A (ja) 2008-04-22 2009-04-22 デバイス上の言語入力インターフェース
JP2011035538A Pending JP2011138536A (ja) 2008-04-22 2011-02-22 デバイス上の言語入力インターフェース

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2011035538A Pending JP2011138536A (ja) 2008-04-22 2011-02-22 デバイス上の言語入力インターフェース

Country Status (2)

Country Link
US (1) US8949743B2 (ja)
JP (2) JP2009266236A (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237963A (ja) * 2010-05-10 2011-11-24 Micware Co Ltd 情報処理装置、情報処理方法、およびプログラム
JP2012043248A (ja) * 2010-08-20 2012-03-01 Nec Corp 操作入力装置ならびにプログラムと方法
WO2012029345A1 (ja) * 2010-09-03 2012-03-08 日本電気株式会社 携帯端末およびその表示制御方法
WO2012060352A1 (ja) * 2010-11-02 2012-05-10 株式会社Jvcケンウッド タッチパネル処理装置、タッチパネル処理方法、及びプログラム
WO2012086133A1 (ja) * 2010-12-20 2012-06-28 パナソニック株式会社 タッチパネル装置
JP2012146342A (ja) * 2012-05-09 2012-08-02 Nec Corp 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置
JP2012155491A (ja) * 2011-01-25 2012-08-16 Nec Personal Computers Ltd 入力装置
JP2012168939A (ja) * 2011-02-11 2012-09-06 Sony Mobile Communications Inc 情報入力装置
WO2012161223A1 (ja) * 2011-05-25 2012-11-29 Necカシオモバイルコミュニケーションズ株式会社 入力装置、入力方法およびプログラム
JP2013041567A (ja) * 2011-07-21 2013-02-28 Sharp Corp 文字入力装置
JP2013511763A (ja) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器
JP2013527539A (ja) * 2010-05-24 2013-06-27 テンプル,ウィル,ジョン 多角的ボタン、キーおよびキーボード
JPWO2012102159A1 (ja) * 2011-01-27 2014-06-30 シャープ株式会社 文字入力装置および文字入力方法
JP2015049861A (ja) * 2013-09-04 2015-03-16 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
EP2916212A1 (en) 2014-03-04 2015-09-09 Omron Corporation Character input device and information processing device
JP2015207143A (ja) * 2014-04-21 2015-11-19 富士通株式会社 情報処理装置,文字入力プログラム及び文字入力方法
JP2016514872A (ja) * 2013-03-22 2016-05-23 ネオペード インコーポレイテッド 文字入力装置及び文字入力方法
US9348503B2 (en) 2008-01-10 2016-05-24 Nec Corporation Information input device, information input method, information input control program, and electronic device
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005096217A1 (en) * 2004-04-02 2005-10-13 Nokia Corporation Apparatus and method for handwriting recognition
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US20090058823A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8661340B2 (en) 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
US8677285B2 (en) 2008-02-01 2014-03-18 Wimm Labs, Inc. User interface of a small touch sensitive display for an electronic data and communication device
US8289283B2 (en) 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8908973B2 (en) * 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface
CN101667092A (zh) * 2008-05-15 2010-03-10 杭州惠道科技有限公司 实时预测用户输入的人机界面
KR101111566B1 (ko) * 2008-05-23 2012-02-24 삼성전자주식회사 휴대 단말기의 인터페이스 전환 장치 및 방법
US9355090B2 (en) * 2008-05-30 2016-05-31 Apple Inc. Identification of candidate characters for text input
US9250797B2 (en) * 2008-09-30 2016-02-02 Verizon Patent And Licensing Inc. Touch gesture interface apparatuses, systems, and methods
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
US8289162B2 (en) * 2008-12-22 2012-10-16 Wimm Labs, Inc. Gesture-based user interface for a wearable portable device
US20100177048A1 (en) * 2009-01-13 2010-07-15 Microsoft Corporation Easy-to-use soft keyboard that does not require a stylus
US8326358B2 (en) 2009-01-30 2012-12-04 Research In Motion Limited System and method for access control in a portable electronic device
US8605039B2 (en) * 2009-03-06 2013-12-10 Zimpl Ab Text input
US8564541B2 (en) * 2009-03-16 2013-10-22 Apple Inc. Zhuyin input interface on a device
KR101561911B1 (ko) * 2009-03-23 2015-10-20 엘지전자 주식회사 키 입력 방법 및 그 장치
US7721222B1 (en) * 2009-06-10 2010-05-18 Cheman Shaik Dynamic language text generation system and method
TWI492140B (zh) * 2009-08-28 2015-07-11 Compal Electronics Inc 鍵盤輸入的方法與輔助系統
JP5373562B2 (ja) * 2009-11-12 2013-12-18 京セラ株式会社 携帯端末及び入力制御プログラム
KR20110071326A (ko) * 2009-12-21 2011-06-29 삼성전자주식회사 프로젝터 기능의 휴대 단말기의 입력 키 출력 방법 및 장치
JP5531612B2 (ja) * 2009-12-25 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法、プログラム、制御対象機器および情報処理システム
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure
KR101682579B1 (ko) * 2010-03-30 2016-12-05 삼성전자 주식회사 터치 단말에서 문자 입력기 제공 방법 및 장치
US8881061B2 (en) 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US10788976B2 (en) 2010-04-07 2020-09-29 Apple Inc. Device, method, and graphical user interface for managing folders with multiple pages
DE102010036906A1 (de) * 2010-08-06 2012-02-09 Tavendo Gmbh Konfigurierbares Pie-Menü
JP5452418B2 (ja) * 2010-08-23 2014-03-26 京セラ株式会社 触感呈示装置
US9043732B2 (en) * 2010-10-21 2015-05-26 Nokia Corporation Apparatus and method for user input for controlling displayed information
US20120113008A1 (en) * 2010-11-08 2012-05-10 Ville Makinen On-screen keyboard with haptic effects
KR20120074175A (ko) * 2010-12-27 2012-07-05 삼성전자주식회사 단말기에서 문자 입력 장치 및 방법
US20120162086A1 (en) * 2010-12-27 2012-06-28 Samsung Electronics Co., Ltd. Character input method and apparatus of terminal
KR20120081422A (ko) * 2011-01-11 2012-07-19 삼성전자주식회사 터치 스크린을 구비한 단말기 및 그 단말기에서 터치 이벤트에 따른 문자 입력 방법
US8738356B2 (en) * 2011-05-18 2014-05-27 Microsoft Corp. Universal text input
US8816966B2 (en) * 2011-05-23 2014-08-26 Microsoft Corporation Touchscreen japanese character selection through sliding input
US9189077B2 (en) 2011-05-24 2015-11-17 Microsoft Technology Licensing, Llc User character input interface with modifier support
US8286104B1 (en) * 2011-10-06 2012-10-09 Google Inc. Input method application for a touch-sensitive user interface
US8490008B2 (en) 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
US9652448B2 (en) 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US9715489B2 (en) 2011-11-10 2017-07-25 Blackberry Limited Displaying a prediction candidate after a typing mistake
US9122672B2 (en) 2011-11-10 2015-09-01 Blackberry Limited In-letter word prediction for virtual keyboard
US9310889B2 (en) 2011-11-10 2016-04-12 Blackberry Limited Touchscreen keyboard predictive display and generation of a set of characters
CA2857531A1 (en) * 2011-12-08 2013-06-13 Exo U Inc. Method for improving an interaction with a user interface displayed on a 3d touch screen display
US9557913B2 (en) 2012-01-19 2017-01-31 Blackberry Limited Virtual keyboard display having a ticker proximate to the virtual keyboard
CA2789827C (en) 2012-01-19 2017-06-13 Research In Motion Limited Virtual keyboard providing an indication of received input
US20130222255A1 (en) 2012-02-24 2013-08-29 Research In Motion Limited Portable electronic device including touch-sensitive display and method of controlling same
EP2631758B1 (en) 2012-02-24 2016-11-02 BlackBerry Limited Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
CN103365584A (zh) * 2012-04-06 2013-10-23 中兴通讯股份有限公司 一种处理键盘输入的方法及设备
US9436291B2 (en) * 2012-04-13 2016-09-06 Texas Instruments Incorporated Method, system and computer program product for operating a keyboard
EP2653955B1 (en) * 2012-04-16 2017-02-08 BlackBerry Limited Method and device having touchscreen keyboard with visual cues
US9201510B2 (en) 2012-04-16 2015-12-01 Blackberry Limited Method and device having touchscreen keyboard with visual cues
WO2013156815A1 (en) * 2012-04-18 2013-10-24 Nokia Corporation A display apparatus with haptic feedback
US10025487B2 (en) 2012-04-30 2018-07-17 Blackberry Limited Method and apparatus for text selection
US9292192B2 (en) 2012-04-30 2016-03-22 Blackberry Limited Method and apparatus for text selection
US9354805B2 (en) 2012-04-30 2016-05-31 Blackberry Limited Method and apparatus for text selection
JP6000642B2 (ja) * 2012-05-22 2016-10-05 京セラ株式会社 電子機器
WO2013175778A1 (ja) 2012-05-22 2013-11-28 京セラ株式会社 電子機器及びパネル装置
US9207860B2 (en) 2012-05-25 2015-12-08 Blackberry Limited Method and apparatus for detecting a gesture
KR102124297B1 (ko) * 2012-06-04 2020-06-19 홈 컨트롤 싱가포르 피티이. 엘티디. 영숫자식 문자들을 입력하기 위한 사용자 인터페이스
US9116552B2 (en) 2012-06-27 2015-08-25 Blackberry Limited Touchscreen keyboard providing selection of word predictions in partitions of the touchscreen keyboard
US9098516B2 (en) * 2012-07-18 2015-08-04 DS Zodiac, Inc. Multi-dimensional file system
JP5931627B2 (ja) * 2012-07-23 2016-06-08 京セラ株式会社 携帯端末装置、プログラムおよび入力訂正方法
US20140040810A1 (en) * 2012-08-01 2014-02-06 James George Haliburton Electronic device and method of changing a keyboard
US9063653B2 (en) 2012-08-31 2015-06-23 Blackberry Limited Ranking predictions based on typing speed and typing confidence
US9524290B2 (en) 2012-08-31 2016-12-20 Blackberry Limited Scoring predictions based on prediction length and typing speed
JP5844707B2 (ja) * 2012-09-28 2016-01-20 富士フイルム株式会社 画像表示制御装置、画像表示装置、プログラム及び画像表示方法
US8994827B2 (en) 2012-11-20 2015-03-31 Samsung Electronics Co., Ltd Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
GB2511044A (en) 2013-02-20 2014-08-27 Ibm Capturing diacritics on multi-touch devices
JP6203512B2 (ja) * 2013-03-25 2017-09-27 京セラ株式会社 電子機器、方法、及びプログラム
JP5768841B2 (ja) * 2013-06-21 2015-08-26 コニカミノルタ株式会社 画像形成システム、画像形成装置、遠隔操作装置およびプログラム
KR102313353B1 (ko) * 2013-07-29 2021-10-18 삼성전자주식회사 캐릭터 입력 방법 및 디스플레이 장치
JP5628984B2 (ja) * 2013-09-19 2014-11-19 京セラ株式会社 携帯端末及び入力制御プログラム
JP5924325B2 (ja) * 2013-10-02 2016-05-25 コニカミノルタ株式会社 入力装置、情報処理装置、入力装置の制御方法、および、当該制御方法をコンピューターに実行させるためのプログラム
US9529528B2 (en) * 2013-10-22 2016-12-27 International Business Machines Corporation Accelerated data entry for constrained format input fields
US10250735B2 (en) 2013-10-30 2019-04-02 Apple Inc. Displaying relevant user interface objects
US9529449B1 (en) * 2013-12-04 2016-12-27 Google Inc. Input method editors for indic languages
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
TWI603255B (zh) * 2014-05-05 2017-10-21 志勇無限創意有限公司 手持裝置及其輸入方法
US10223634B2 (en) 2014-08-14 2019-03-05 The Board Of Trustees Of The Leland Stanford Junior University Multiplicative recurrent neural network for fast and robust intracortical brain machine interface decoders
JP6380150B2 (ja) * 2015-02-13 2018-08-29 オムロン株式会社 文字入力システム用のプログラムおよび情報処理装置
USD777207S1 (en) * 2015-02-27 2017-01-24 Samsung Electronics Co., Ltd. Display screen or portion thereof with icon
KR101653102B1 (ko) * 2015-04-13 2016-08-31 숭실대학교산학협력단 단순화된 쿼티 소프트웨어 키패드를 이용한 한글/영어/숫자/기호 문자 입력 방법
US9817570B2 (en) 2015-11-17 2017-11-14 International Business Machines Corporation Three dimensional keyboard with rotatable keys
DK201670595A1 (en) 2016-06-11 2018-01-22 Apple Inc Configuring context-specific user interfaces
US11816325B2 (en) 2016-06-12 2023-11-14 Apple Inc. Application shortcuts for carplay
US10417339B2 (en) * 2017-08-18 2019-09-17 Kyocera Document Solutions Inc. Suggestion of alternate user input using different user interface
US10949086B2 (en) * 2018-10-29 2021-03-16 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for virtual keyboards for high dimensional controllers
JP7143792B2 (ja) * 2019-03-14 2022-09-29 オムロン株式会社 文字入力装置、文字入力方法、及び、文字入力プログラム
US11675476B2 (en) 2019-05-05 2023-06-13 Apple Inc. User interfaces for widgets
CN112400155A (zh) * 2019-06-12 2021-02-23 谷歌有限责任公司 在用户界面中动态展示重复使用的数据
US11640204B2 (en) 2019-08-28 2023-05-02 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods decoding intended symbols from neural activity

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108543A (ja) * 2000-09-21 2002-04-12 Nokia Mobile Phones Ltd 仮名文字入力方法
JP2002325965A (ja) * 2001-04-27 2002-11-12 Sega Corp 入力文字処理方法
WO2007070223A1 (en) * 2005-12-15 2007-06-21 Microsoft Corporation Smart soft keyboard

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2002912A1 (en) * 1988-11-14 1990-05-14 William A. Clough Portable computer with touch screen and computer system employing same
US5483261A (en) * 1992-02-14 1996-01-09 Itu Research, Inc. Graphical input controller and method with rear screen image detection
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5488204A (en) * 1992-06-08 1996-01-30 Synaptics, Incorporated Paintbrush stylus for capacitive touch sensor pad
US5535119A (en) * 1992-06-11 1996-07-09 Hitachi, Ltd. Character inputting method allowing input of a plurality of different types of character species, and information processing equipment adopting the same
US6115053A (en) * 1994-08-02 2000-09-05 New York University Computer animation method and system for synthesizing human-like gestures and actions
JPH08272787A (ja) 1995-03-29 1996-10-18 Sharp Corp 文字処理装置
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US5835079A (en) * 1996-06-13 1998-11-10 International Business Machines Corporation Virtual pointing device for touchscreens
JPH1049272A (ja) 1996-08-05 1998-02-20 Hozumi Nishie ブラインド操作が容易なキーボード
JP3889466B2 (ja) * 1996-11-25 2007-03-07 ソニー株式会社 文章入力装置及び方法
US6310610B1 (en) * 1997-12-04 2001-10-30 Nortel Networks Limited Intelligent touch display
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7844914B2 (en) * 2004-07-30 2010-11-30 Apple Inc. Activating virtual keys of a touch-screen virtual keyboard
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
EP1058924B1 (en) * 1998-01-26 2012-06-13 Apple Inc. Method and apparatus for integrating manual input
CN1156741C (zh) * 1998-04-16 2004-07-07 国际商业机器公司 手写汉字识别方法及装置
US6188391B1 (en) * 1998-07-09 2001-02-13 Synaptics, Inc. Two-layer capacitive touchpad and method of making same
JP2000089886A (ja) 1998-09-10 2000-03-31 Scale:Kk 仮想多面体を用いたデスクトップ管理システム及び方法
JP2000112636A (ja) 1998-10-07 2000-04-21 Kanazawa Engineering Systems:Kk かな文字入力装置
JP4542637B2 (ja) 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
AU5299700A (en) 1999-05-27 2000-12-18 America Online, Inc. Keyboard system with automatic correction
US7030863B2 (en) 2000-05-26 2006-04-18 America Online, Incorporated Virtual keyboard system with automatic correction
US6677932B1 (en) * 2001-01-28 2004-01-13 Finger Works, Inc. System and method for recognizing touch typing under limited tactile feedback conditions
US6570557B1 (en) * 2001-02-10 2003-05-27 Finger Works, Inc. Multi-touch system and method for emulating modifier keys via fingertip chords
US7168046B2 (en) * 2001-04-26 2007-01-23 Lg Electronics Inc. Method and apparatus for assisting data input to a portable information terminal
JP3800984B2 (ja) 2001-05-21 2006-07-26 ソニー株式会社 ユーザ入力装置
US6661409B2 (en) * 2001-08-22 2003-12-09 Motorola, Inc. Automatically scrolling handwritten input user interface for personal digital assistants and the like
JP2003173237A (ja) * 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP4073215B2 (ja) * 2002-01-28 2008-04-09 富士通株式会社 文字入力装置
JP2003216650A (ja) * 2002-01-28 2003-07-31 Sony Corp 情報媒介システムのためのグラフィカルユーザインターフェイス
US7380203B2 (en) * 2002-05-14 2008-05-27 Microsoft Corporation Natural input recognition tool
US7096432B2 (en) * 2002-05-14 2006-08-22 Microsoft Corporation Write anywhere tool
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
EP1573715A4 (en) 2002-12-16 2011-11-02 Microsoft Corp SYSTEMS AND METHOD FOR CONNECTING TO COMPUTER DEVICES
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
US8479112B2 (en) * 2003-05-13 2013-07-02 Microsoft Corporation Multiple input language selection
JP2005092441A (ja) 2003-09-16 2005-04-07 Aizu:Kk 文字入力方法
US7406662B2 (en) * 2003-11-10 2008-07-29 Microsoft Corporation Data input panel character conversion
US20050152600A1 (en) * 2004-01-14 2005-07-14 International Business Machines Corporation Method and apparatus for performing handwriting recognition by analysis of stroke start and end points
WO2006055025A1 (en) * 2004-11-19 2006-05-26 Yoshimoto, Inc. Data input device and data input method
CA2500573A1 (en) * 2005-03-14 2006-09-14 Oculus Info Inc. Advances in nspace - system and method for information analysis
US7599828B2 (en) 2005-03-01 2009-10-06 Microsoft Corporation Grammatically correct contraction spelling suggestions for french
JP2007041726A (ja) 2005-08-01 2007-02-15 Ricoh Co Ltd 表示処理装置、表示処理方法及び表示処理プログラム
CN1949158B (zh) 2005-10-11 2012-02-15 摩托罗拉移动公司 向电子设备中输入文本
JP2007156548A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 情報処理装置および切り替え方法
US7843427B2 (en) 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
TWI350504B (en) * 2006-10-20 2011-10-11 Au Optronics Corp Integrated circuit connection structure and method for data transmission
US8253694B2 (en) * 2007-08-03 2012-08-28 Google Inc. Language keyboard
US20090058823A1 (en) 2007-09-04 2009-03-05 Apple Inc. Virtual Keyboards in Multi-Language Environment
US8661340B2 (en) * 2007-09-13 2014-02-25 Apple Inc. Input methods for device having multi-language environment
US8289283B2 (en) * 2008-03-04 2012-10-16 Apple Inc. Language input interface on a device
US8908973B2 (en) 2008-03-04 2014-12-09 Apple Inc. Handwritten character recognition interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002108543A (ja) * 2000-09-21 2002-04-12 Nokia Mobile Phones Ltd 仮名文字入力方法
JP2002325965A (ja) * 2001-04-27 2002-11-12 Sega Corp 入力文字処理方法
WO2007070223A1 (en) * 2005-12-15 2007-06-21 Microsoft Corporation Smart soft keyboard

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9348503B2 (en) 2008-01-10 2016-05-24 Nec Corporation Information input device, information input method, information input control program, and electronic device
US10684775B2 (en) 2008-01-10 2020-06-16 Nec Corporation Information input device, information input method, information input control program, and electronic device
US9354802B2 (en) 2008-01-10 2016-05-31 Nec Corporation Information input device, information input method, information input control program, and electronic device
JP2013511763A (ja) * 2009-11-24 2013-04-04 サムスン エレクトロニクス カンパニー リミテッド ユーザ操作の開始位置をガイドするgui提供方法及びそれを適用したデジタル機器
JP2011237963A (ja) * 2010-05-10 2011-11-24 Micware Co Ltd 情報処理装置、情報処理方法、およびプログラム
JP2013527539A (ja) * 2010-05-24 2013-06-27 テンプル,ウィル,ジョン 多角的ボタン、キーおよびキーボード
JP2012043248A (ja) * 2010-08-20 2012-03-01 Nec Corp 操作入力装置ならびにプログラムと方法
WO2012029345A1 (ja) * 2010-09-03 2012-03-08 日本電気株式会社 携帯端末およびその表示制御方法
JP2012054880A (ja) * 2010-09-03 2012-03-15 Nec Corp 携帯端末およびその表示制御方法
CN103026315A (zh) * 2010-09-03 2013-04-03 日本电气株式会社 便携式终端及其显示控制方法
WO2012060352A1 (ja) * 2010-11-02 2012-05-10 株式会社Jvcケンウッド タッチパネル処理装置、タッチパネル処理方法、及びプログラム
WO2012086133A1 (ja) * 2010-12-20 2012-06-28 パナソニック株式会社 タッチパネル装置
JP2012155491A (ja) * 2011-01-25 2012-08-16 Nec Personal Computers Ltd 入力装置
JPWO2012102159A1 (ja) * 2011-01-27 2014-06-30 シャープ株式会社 文字入力装置および文字入力方法
JP2012168939A (ja) * 2011-02-11 2012-09-06 Sony Mobile Communications Inc 情報入力装置
US11380334B1 (en) 2011-03-01 2022-07-05 Intelligible English LLC Methods and systems for interactive online language learning in a pandemic-aware world
US11062615B1 (en) 2011-03-01 2021-07-13 Intelligibility Training LLC Methods and systems for remote language learning in a pandemic-aware world
US10019995B1 (en) 2011-03-01 2018-07-10 Alice J. Stiebel Methods and systems for language learning based on a series of pitch patterns
US10565997B1 (en) 2011-03-01 2020-02-18 Alice J. Stiebel Methods and systems for teaching a hebrew bible trope lesson
WO2012161223A1 (ja) * 2011-05-25 2012-11-29 Necカシオモバイルコミュニケーションズ株式会社 入力装置、入力方法およびプログラム
JP2013041567A (ja) * 2011-07-21 2013-02-28 Sharp Corp 文字入力装置
JP2012146342A (ja) * 2012-05-09 2012-08-02 Nec Corp 電子機器、該電子機器に用いられる情報入力方法及び情報入力制御プログラム、並びに携帯端末装置
JP2016514872A (ja) * 2013-03-22 2016-05-23 ネオペード インコーポレイテッド 文字入力装置及び文字入力方法
US9720518B2 (en) 2013-03-22 2017-08-01 Neopad, Inc. Character input apparatus and character input method
JP2015049861A (ja) * 2013-09-04 2015-03-16 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
US10303359B2 (en) 2014-03-04 2019-05-28 Omron Corporation Character input device and information processing device
EP2916212A1 (en) 2014-03-04 2015-09-09 Omron Corporation Character input device and information processing device
JP2015207143A (ja) * 2014-04-21 2015-11-19 富士通株式会社 情報処理装置,文字入力プログラム及び文字入力方法

Also Published As

Publication number Publication date
US8949743B2 (en) 2015-02-03
US20090265669A1 (en) 2009-10-22
JP2011138536A (ja) 2011-07-14

Similar Documents

Publication Publication Date Title
US8949743B2 (en) Language input interface on a device
KR101873908B1 (ko) 휴대용 장치의 사용자 인터페이스 제공 방법 및 장치
USRE46139E1 (en) Language input interface on a device
US9141200B2 (en) Device, method, and graphical user interface for entering characters
US9591221B2 (en) Magnetic camera component mounting in cameras
US8780082B2 (en) Touch screen device, method, and graphical user interface for moving on-screen objects without using a cursor
JP2018185846A (ja) 移動装置のアプリケーション管理のためのユーザインターフェイス
EP3005066B1 (en) Multiple graphical keyboards for continuous gesture input
US20160253086A1 (en) Device, method, and graphical user interface for managing multiple display windows
US20120032891A1 (en) Device, Method, and Graphical User Interface with Enhanced Touch Targeting
US20090225034A1 (en) Japanese-Language Virtual Keyboard
KR101317290B1 (ko) 휴대용 전자 디바이스 및 이것의 제어 방법
JP5777645B2 (ja) 携帯端末機の文字入力方法及びこれをサポートする携帯端末機
US20140240262A1 (en) Apparatus and method for supporting voice service in a portable terminal for visually disabled people
US11243679B2 (en) Remote data input framework
JP6057441B2 (ja) 携帯装置およびその入力方法
JP2013171584A (ja) 多面的なグラフィック・オブジェクトを有する携帯端末及び表示切替方法
US20110014953A1 (en) User input assembly for an electronic device
US11128786B2 (en) Bending a circuit-bearing die
US9996213B2 (en) Apparatus for a user interface and associated methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091214

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20091214

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20100115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100125

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100426

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100430

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20101124

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20101129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110322

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110831

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20110905

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20120302

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121121

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121127

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121226

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130128