JP2015510176A - 入力処理方法及び装置 - Google Patents

入力処理方法及び装置 Download PDF

Info

Publication number
JP2015510176A
JP2015510176A JP2014553610A JP2014553610A JP2015510176A JP 2015510176 A JP2015510176 A JP 2015510176A JP 2014553610 A JP2014553610 A JP 2014553610A JP 2014553610 A JP2014553610 A JP 2014553610A JP 2015510176 A JP2015510176 A JP 2015510176A
Authority
JP
Japan
Prior art keywords
input
information
user
mode
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014553610A
Other languages
English (en)
Other versions
JP5860171B2 (ja
Inventor
章文 ▲饒▼
章文 ▲饒▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2015510176A publication Critical patent/JP2015510176A/ja
Application granted granted Critical
Publication of JP5860171B2 publication Critical patent/JP5860171B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/70Details of telephonic subscriber devices methods for entering alphabetical characters, e.g. multi-tap or dictionary disambiguation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/74Details of telephonic subscriber devices with voice recognition means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Machine Translation (AREA)

Abstract

本発明の実施形態は、入力処理方法及び装置を提供する。入力処理方法は、端末装置により、ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップであって、前記入力モードはジェスチャ入力モード又は音声入力モードである、ステップと、予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングルールして、前記第1の入力情報に対応するコードを得るステップと、予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するステップと、を有する。本発明の実施形態で提供される入力処理方法では、ユーザにより選択された入力モードに従って第1の入力情報を取得し、第1の入力情報に従って対応するコードを取得し、次にエンコーディングにより、ユーザにより入力される単語を取得することにより、複雑な単語の迅速且つ正確な入力が行われ、それにより、入力効率を効果的に向上する。

Description

本発明は、通信技術に関し、特に、入力処理方法及び装置に関する。
今日、スマートフォンやタブレットコンピュータのような高機能装置が次第に一般的になってきている。これらの装置の多くは、仮想キーボードを用いて入力操作を実行する必要のあるタッチスクリーンを採用する。スクリーンの領域が限られるので、ユーザは、10本の指を同時に使って入力操作を実行できない。したがって、仮想キーボードを用いた入力の効率は、物理的キーボードを用いた入力の効率に比べると遙かに低い。特に、特定のシナリオでは(例えば、運転中や、振動するバスの車内に座っているとき)、例えば、ユーザが電子メールアドレス(例えば、Jacky12345@huawei.com)を入力する必要があるとき、大文字と小文字、数字と記号の複合的入力のために、ユーザは、入力を完了するために、数字、文字、及び句読点記号の入力モード間で頻繁に切り替える必要がある。入力効率が低いだけでなく、間違ったボタンが誤って押され易く、正確な入力を保証することを困難にしてしまう。
上述の問題を解決するために、従来のスマートフォンやタブレットコンピュータのような装置は、主に、音声入力及び/又は手書き入力方法を採用して、ユーザの入力効率を向上させている。しかしながら、音声入力は、ネットワークの支援無しには実施できず、特定言語の標準的発音を認識できるだけであり、異なるアクセントでは認識率が低い。また、手書き入力では、手書きが特定の仕様に適合する必要があり、多くのストロークを有する文字では2次的な選択が要求される。したがって、上述の方法は、依然として入力効率が低いという問題を有する。
本発明の実施形態は、複雑な単語の迅速且つ正確な入力を実施することにより入力効率を効果的に効率させる入力処理方法及び装置を提供する。
第1の態様によると、本発明は、端末装置により、ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップであって、前記入力モードはジェスチャ入力モード又は音声入力モードである、ステップと、前記端末装置により、予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングルールして、前記第1の入力情報に対応するコードを得るステップと、前記端末装置により、予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するステップと、を有する入力処理方法を提供する。
第1の態様の第1の可能な実施では、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップは、前記入力モードが前記ジェスチャ入力モードであるとき、前記端末装置の仮想キーボードに前記ユーザにより入力される第1のタッチ軌跡に関する情報を取得するステップ、又は前記入力モードが前記音声入力モードであるとき、前記端末装置の音声センサを用いて第1の音声情報を集めるステップ、を有する。
予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコードして第1の入力情報に対応するコードを得るステップは、取得された第1の入力情報が入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡であるとき、仮想キーボード上で第1のタッチ軌跡が通過するボタンに対応するキャラクタを結合して、第1の入力情報に対応するコードを得て、取得された第1の入力情報が第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第1の音声情報をエンコーディングして、第1の入力情報に対応するコードを得るステップを有する。
第1の態様又は第1の態様の第1の可能な実施に関して、第1の態様の第2の可能な実施では、前記方法は、前記端末装置により、単語処理要求を受信するステップであって、前記単語処理要求は単語を前記語彙集に追加することを要求するために用いられ、前記単語処理要求は、単語処理モードと追加すべき単語とを有し、前記単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードである、ステップと、前記端末装置により、前記単語処理要求に従って前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信し、前記予め設定されたエンコーディングルールに従って前記第2の入力情報をエンコーディングして、前記第2の入力情報に対応するコードを生成するステップと、前記端末装置により、前記第2の入力情報に対応する前記コードと前記追加されるべき単語との間のマッピング関係を確立し、該マッピング関係を前記語彙集に格納するステップと、を更に有する。第1の態様の第2の可能な実施に関して、第1の態様の第3の可能な実施では、前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信するステップは、前記単語処理モードが前記ジェスチャ単語処理モードであるとき、前記端末装置の前記仮想キーボードに前記ユーザにより入力される第2のタッチ軌跡に関する情報を取得するステップ、又は前記単語処理モードが前記音声単語処理モードであるとき、前記端末装置の前記音声センサを用いて第2の音声情報を集めるステップ、を有する。
また、前記の取得された第2の入力情報が前記端末装置の前記仮想キーボード上の前記ユーザの前記第2のタッチ軌跡であるとき、前記仮想キーボード上で前記第2のタッチ軌跡が連続的に通過するボタンに対応するキャラクタが結合され、前記第2の入力情報に対応する前記コードを得て、前記の取得された第2の入力情報が第2の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて前記第2の音声情報に対してエンコーディング処理が実行され、前記第2の入力情報に対応する前記コードを得る。
第1の態様に関して、第1の態様の第1乃至第3の可能な実施では、予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するステップの後に、前記方法は、前記コードに対応する複数の候補単語が取得されたとき、前記複数の候補単語を頻度の降順に従って配置し、前記端末装置のスクリーンに、前記の並べ替えた複数の候補単語を、ユーザによる選択のために表示するステップと、前記端末装置の前記スクリーンの特定領域に、前記並べ替えた複数の候補単語からユーザにより選択された単語を表示するステップと、を更に有する。
第2の態様によると、本発明は、ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するよう構成される情報取得モジュールであって、、前記入力モードはジェスチャ入力モード又は音声入力モードである、情報取得モジュールと、予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングして、前記第1の入力情報に対応するコードを得るよう構成されるエンコーディング処理モジュールと、予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するよう構成される問い合わせ及び取得モジュールと、を有する入力処理装置を提供する。
第2の態様の第1の可能な実施では、情報取得モジュールは、特に、入力モードがジェスチャ入力モードであるとき、入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡に関する情報を取得するよう構成される。或いは、情報取得モジュールは、特に、入力モードが音声入力モードであるとき、入力処理装置の音声センサを用いて第1の音声情報を集めるよう構成される。また、前記エンコーディング処理モジュールは、特に、前記情報取得モジュールにより取得された前記第1の入力情報が前記入力処理装置の前記仮想キーボード上の前記ユーザの前記第1のタッチ軌跡であるとき、前記仮想キーボード上で前記第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第1の入力情報に対応する前記コードを得るよう構成される。或いは、前記エンコーディング処理モジュールは、特に、前記情報取得モジュールにより取得された前記第1の入力情報が前記第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて前記第1の音声情報をエンコードして、前記第1の入力情報に対応する前記コードを得るよう構成される。
第2の態様又は第2の態様の第1の可能な実施に関して、第1の態様の第2の可能な実施では、前記入力処理装置は、受信モジュールと単語記憶モジュールとを更に有し、前記受信モジュールは、単語処理要求を受信するよう構成され、前記単語処理要求は、単語を前記語彙集に追加することを要求するために用いられ、前記単語処理要求は、単語処理モードと追加すべき単語とを有し、前記単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードであり、前記情報取得モジュールは、前記単語処理要求に従って、前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信するよう更に構成され、前記エンコーディング処理モジュールは、前記予め設定されたエンコーディングルールに従って、前記第2の入力情報をエンコードして、前記第2の入力情報に対応するコードを生成するよう更に構成され、前記単語記憶モジュールは、前記第2の入力情報に対応する前記コードと前記追加すべき単語との間のマッピング関係を確立し、前記マッピング関係を前記語彙集に格納するよう更に構成される。
第2の態様の第2の可能な実施に関して、第2の態様の第3の可能な実施では、前記情報取得モジュールは、特に、前記単語処理モードが前記ジェスチャ単語処理モードであるとき、前記入力処理装置の前記仮想キーボード上の前記ユーザの第2のタッチ軌跡に関する情報を取得するよう構成され、又は前記情報取得モジュールは、特に、前記単語処理モードが前記音声単語処理モードであるとき、前記音声単語処理モードに従って、前記入力処理装置の音声センサを用いて第2の音声情報を集めるよう構成される。
第2の態様の第3の可能な実施に関して、第2の態様の第4の可能な実施では、前記エンコーディング処理モジュールは、特に、前記情報取得モジュールにより取得された前記第2の入力情報が前記入力処理装置の前記仮想キーボード上の前記ユーザの前記第2のタッチ軌跡であるとき、前記仮想キーボード上で前記第2のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第2の入力情報に対応する前記コードを得るよう構成され、又は前記エンコーディング処理モジュールは、特に、前記情報取得モジュールにより取得された前記第2の入力情報が前記第2の音声情報であるとき、前記ハッシュアルゴリズム、前記HMM(hidden Markov model)アルゴリズム、又は前記DTW(dynamic time warping)アルゴリズムを用いて前記第2の音声情報をエンコードして、前記第2の入力情報に対応する前記コードを得るよう構成される。
第2の態様又は第2の態様の第4の可能な実施に関して、第2の態様の第5の可能な実施では、前記入力処理装置は、前記コードに対応する複数の候補単語が取得されたとき、前記複数の候補単語を頻度の降順に従って並べ替え、前記ユーザによる選択のために、前記入力処理装置のスクリーンに、前記の並べ替えた複数の候補単語を表示するよう構成される並べ替え処理モジュールと、前記入力処理装置の前記スクリーンの特定領域に、前記並べ替えた複数の候補単語から前記ユーザにより選択された単語を表示するよう構成されるディスプレイモジュールと、を更に有する。
本発明の本実施形態では、ユーザにより選択された入力モードに従って、ユーザにより入力され入力モードに一致する第1の入力情報が取得され、予め設定されたエンコーディングルールに従って、第1の入力情報に対してエンコーディング処理が実行され、第1の入力情報に対応するコードを得て、最後に、予め確立された語彙集が問い合わせられ、コードに対応する候補単語を得る。異なる入力モードに従って第1の入力情報を取得し、第1の入力情報に従って対応するコードを取得し、次にエンコーディングにより、ユーザにより入力され単語を取得することにより、複雑な単語の迅速且つ正確な入力が行われ、それにより、入力効率を効果的に向上し、ユーザ経験を向上する。
本発明の実施形態の又は従来技術の技術的解決策をより明確に説明するために、実施形態又は従来技術の説明に必要な図面が以下の通り導入される。明らかなことに、以下の説明中の添付の図面は、本発明のほんの一部の実施形態であり、これらの図面に従って当業者により創造的労力を有しないで他の図面も得られる。
本発明の入力処理方法の一実施形態のフローチャートである。 本発明の入力処理方法の別の実施形態のフローチャートである。 本発明の入力処理方法の更に別の実施形態のフローチャートである。 端末装置の入力インタフェースの概略図である。 端末装置の入力インタフェースの別の概略図である。 本発明の入力処理方法の更に別の実施形態のフローチャートである。 端末装置の入力インタフェースの更に別の概略図である。 本発明の入力処理装置の一実施形態の概略的構造図である。 本発明の入力処理装置の別の実施形態の概略的構造図である。 本発明の入力処理装置の更に別の実施形態の概略的構造図である。
本発明の目的、技術的解決策、及び利点を更に理解にするために、以下に、本発明の実施形態における技術的解決策を本発明の実施形態における添付の図面を参照して明確且つ完全に記載する。明らかに、記載される実施形態は、本発明の実施形態の一部のみであり、全ての実施形態ではない。本発明の実施形態に基づき創造的労力を有しないで当業者により得られる全ての他の実施形態は、本発明の保護範囲に包含される。
図1は、本発明の入力処理方法の一実施形態のフローチャートである。図1に示すように、本実施形態で提供される入力処理方法は端末装置により実行され、入力処理方法は、特に以下のステップを有する。
ステップ101:端末装置は、ユーザにより選択された入力モードに従って、ユーザにより入力され且つ入力モードに適合する第1の入力情報を取得する。ここで、入力モードは、ジェスチャ入力モード又は音声入力モードである。
本実施形態では、端末装置は、移動電話機、タブレットコンピュータ等であっても良い。特に、ユーザは、端末装置の入力インタフェース上の対応するボタンをトリガすることにより、入力モードを選択する。望ましくは、入力モードは、音声入力モード又はジェスチャ入力モードである。次に、ユーザにより入力され且つ入力モードに適合する第1の入力情報が取得される。異なる入力モードは異なる入力情報に対応するので、第1の入力情報は異なる入力モードに伴って変化する。例えば、音声入力モードでは第1の入力情報は音声情報片であり、ジェスチャ入力モードでは第1の入力情報はタッチ軌跡情報であり、タッチ軌跡情報は例えばテキスト又はグラフィック情報であっても良い。
ステップ102:端末装置は、予め設定されたエンコーディングルールに従って第1の入力情報をエンコードし、第1の入力情報に対応するコードを得る。
本実施形態では、ユーザにより入力され入力モードに整合する第1の入力情報が得られた後に、予め設定されたエンコーディングルールに従って、エンコーディング処理が第1の入力情報に対して実行され、第1の入力情報に対応するコードを得る。異なる入力モードでは、それに応じて異なるエンコーディングルールが設定され、対応するコードが生成される。特に、ジェスチャ入力モードのために予め設定されたエンコーディングルールが存在し、音声入力モードのために予め設定されたエンコーディングルールも存在する。
ステップ103:端末装置は、予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得する。
本実施形態では、第1の入力情報に対応するコードが得られた後に、予め確立された語彙が問い合わせられ、該コードに対応する候補単語を得る。特に、予め確立された語彙集は、端末装置に接続されるサーバにある語彙集であっても良く、又は端末装置自体により確立されたローカルな語彙集であっても良く、又はサーバにある語彙集から端末装置によりダウンロードされた若しくは端末装置のメモリに格納されたローカルな語彙集であっても良い。語彙集は、ホットな(今話題の)単語、特別な単語、ユーザ定義単語、等を有しても良い。コードと単語との間のマッピング関係が確立されるので、対応する候補単語が、コードに従ってローカルな語彙集から素早くインデックス付けできる。さらに、候補単語は、特に、単一の単語、句、文、数字及び文字のようなキャラクタの長いストリング、例えばQQ account 1234657又は電子メールアドレスyagneos235@hotmail.com.cnのうちの1つ又は複数の組み合わせの形式であっても良い。
望ましくは、コードに対応する1つの候補単語が取得されるとき、1つの候補単語はユーザにより入力される単語である。コードに対応する複数の候補単語が取得されるとき、複数の候補単語は、頻度の降順に従って格納されても良い。次に、格納された複数の候補単語は、ユーザによる選択のために端末装置の画面に表示され、格納された複数の候補単語の中からユーザにより選択された端号が、端末装置の画面の特定の領域に表示される。
本実施形態では、ユーザにより選択された入力モードに従って、ユーザにより入力され入力モードに適合する第1の入力情報が取得され、予め設定されたエンコーディングルールに従って、第1の入力情報に対してエンコーディング処理が実行され、第1の入力情報に対応するコードを得て、最後に、予め確立された語彙集が問い合わせられ、コードに対応する候補単語を得る。異なる入力モードに従って第1の入力情報を取得し、第1の入力情報に従って対応するコードを取得し、次にエンコーディングにより、ユーザにより入力され単語を取得することにより、複雑な単語の迅速且つ正確な入力が行われ、それにより、入力効率を効果的に向上し、ユーザ経験を向上する。
さらに、本発明の別の実施形態では、図1に示した上述の実施形態に基づき、ステップ101のユーザにより入力され入力モードに適合するぢあ1の入力情報を取得するステップは、特に、以下の方法で実施されても良い。
方法1:入力モードがジェスチャ入力モードであるとき、ユーザにより端末装置の仮想キーボードで入力される第1のタッチ軌跡を取得する。
方法2:入力モードが音声入力モードであるとき、端末装置の音声センサを用いることにより、第1の音声情報を集める。
本実施形態では、語彙集は、サーバに予め確立される必要があり、該語彙集は、ホットな単語、特別な単語、ユーザ定義単語、等を有する。ここで、ユーザ定義単語は、ユーザにより予め定められ、端末装置を用いて語彙集にバックアップされた単語であり、ユーザ定義単語は、ユーザの個人的アカウントに関連付けられる必要がある。例えば、語彙集は、ユーザ識別子、及び該ユーザ識別子に対応するユーザ定義単語を格納する。サーバは、集められた単語をインデックス付けし、並べ替える。例えば、サーバは、中国語のピンイン、音標文字、ストローク、発生頻度、等に基づきインデックス付けする。語彙集がより豊富な単語を提供できるように、一般的に用いられる句及び頻繁に生じる単語をインターネットから短時間のうちに集め、それらを語彙集に短時間のうちに追加するために専門の保守管理者が必要であっても良い。さらに、ユーザによる使用に便利なように、ユーザは、端末装置を用いて語彙集を、移動電話機又はタブレットコンピュータのような端末装置のローカルな語彙集にダウンロードしても良い。留意すべきことに、ローカルな語彙集の中のユーザ定義単語は、ユーザの識別子に対応する。一方で、異なるユーザの要求を満たすために、ローカルな語彙集は、強力なカスタマイズ機能を更に有しても良い。ユーザは、彼又は彼女の普通に用いた単語の幾つかをローカルな語彙集の中の独立ファイルに追加し、該ファイルをサーバにアップロードしても良い。そして、サーバは、バックアップ処理のために、該ファイル内の単語をユーザ定義単語に書き込む。更に留意すべきことに、サーバは、複数のユーザ識別子に対応するユーザ定義単語を検索し、頻度の降順に従ってインデックス付けを確立して、ホットな単語を生成し語彙集に追加しても良い。ユーザによる使用中、端末装置は、ユーザのアカウントに関連する単語を、つまりユーザ定義単語をローカルな語彙集に優先的にダウンロードしても良い。専門用語、ホットな単語、等では、サーバは、ユーザに、更新が利用可能であることを知らせ、ユーザは、更新を選択し、専門用語及びホットな単語をローカルな語彙集にダウンロードする。
本実施形態では、ローカルな語彙集は強力なカスタマイズ機能を有し、ユーザは、該カスタマイズ機能を用いて彼又は彼女の通常使用する単語をライブラリに追加し、ユーザによる後の使用を手助けするようにしても良い。以下では、ユーザが単語をどのように定めるかを詳細に説明する。
本発明の別の実施形態では、本発明の入力処理方法の別の実施形態のフローチャートである図2に示すように、図1に示した上述の実施形態に基づき、ステップ101の前に、本実施形態の方法は、以下のステップを更に有しても良い。
ステップ201:端末装置は、単語処理要求を受信する。単語処理要求は、単語を語彙集に追加することを要求するために用いられる。単語処理要求は、単語処理モード及び追加されるべき単語を有する。単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードである。本実施形態では、単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードであり、単語処理要求は、単語を語彙集に追加することを要求するために用いられる。ユーザは、入力インタフェースの対応するボタンをトリガすることにより、単語処理モードを選択し、該単語処理モードで追加されるべき単語を入力する。追加されるべき単語は、ローカルな語彙集内に存在しない単語であり、及びユーザにより定められる単語である。追加されるべき単語は、一般的に用いられるユーザのQQ account、電子メールアドレス、パスワード、電話番号、等であっても良い。ユーザの一般的に用いられる単語は、単語処理要求を用いて語彙集に追加される。
ステップ202:端末装置は、単語処理要求に従って、ユーザにより入力され単語処理モードに一致する第2の入力情報を受信し、予め設定されたエンコーディングルールに従って第2の入力情報をエンコードして、第2の入力情報に対応するコードを生成する。
本実施形態では、ユーザにより入力され単語処理モードに一致する第2の入力情報は、単語処理要求に従って受信され、第2の入力情報は、異なる単語処理モードと共に変化する。ジェスチャ単語処理モードでは、第2の入力情報は、端末装置の仮想キーボードでのユーザのタッチ軌跡である。音声入力モードでは、第2の入力情報は、端末装置の音声センサを用いて集められる音声情報である。さらに、エンコーディング処理が、予め設定されたエンコーディングルールに従って受信した第2の入力情報に対して実行され、第2の入力情報に対応するコードを生成する。ここで、コードは、第2の入力情報を一意的に識別する。異なる入力モードでは、異なるエンコーディング方法が採用される。ジェスチャ単語処理モードのために予め設定されるエンコーディングルールは、端末装置の仮想キーボード上でユーザの第1のタッチ軌跡が連続的に通過するボタンに対応する文字を結合する。また、音声単語処理モードのために予め設定されるエンコーディングルールは、ハッシュ(Hash)アルゴリズム、HMM(Hidden Markov model)アルゴリズム、又はDTW(Dynamic Time Warping)アルゴリズムである。
ステップ203:端末装置は、第2の入力情報に対応するコードと追加すべき単語との間のマッピング関係を確立し、該マッピング関係を語彙集に格納する。
本実施形態では、第2の入力情報に対応するコードと追加すべき単語との間のマッピング関係は、第2の入力情報に対応するコードと単語とに従って確立され、該マッピング関係は語彙集に格納される。このように、ユーザの入力情報は単語にマッピングされる。
本実施形態では、ユーザにより追加される単語は語彙集に格納され、ユーザの入力情報と単語との間のマッピング関係が確立される。したがって、ユーザが新しい入力情報を入力するとき、ユーザの入力情報が認識でき、入力情報に対応するコードが取得でき、そしてユーザにより必要とされる候補単語が、コードとローカルな語彙集に格納された単語との間のマッピング関係に従って迅速にインデックス付けできる。
図3は、本発明の入力処理方法の更に別の実施形態のフローチャートである。本実施形態では、本実施形態の技術的ソリューションは、方法が、移動電話機のような端末装置により実行され、入力モードがジェスチャ入力処理モードであり、第1の入力情報がユーザにより入力されるタッチ軌跡に関する情報である例を用いて詳細に紹介される。図3に示すように、方法は以下のステップを含む。
ステップ301:単語処理要求を受信する。ここで、単語処理要求は、ジェスチャ単語処理モード及び追加されるべき単語を有し、単語処理要求は、単語を語彙集に追加するために用いられる。本実施形態では、単語処理要求は、端末装置の入力インタフェースを用いたユーザによる入力である。図4は、端末装置の入力インタフェースの概略図である。図5は、端末装置の入力インタフェースの別の概略図である。先ず、ユーザは、入力インタフェースで、ユーザ定義単語を追加するためのページを開く。ページには対応するボタンがあり、それぞれ異なる単語処理モードを表す。図4に示すように、ジェスチャ単語処理モード及び音声単語処理モードがある。ユーザがジェスチャ単語処理モードを選択すると、図5に示すページが現れる。ジェスチャ単語処理モードで、ユーザは追加すべき単語12345678を入力し、該単語の備考情報を設定する。備考はQQ accountである。
ステップ302:単語処理要求に従って、ユーザにより入力されジェスチャ単語処理モードに一致する第2のタッチ軌跡を受信し、予め設定されたエンコーディングルールに従って第2のタッチ軌跡をエンコードして、第2のタッチ軌跡に対応するコードを生成する。
本実施形態では、ジェスチャ単語処理モードで、ユーザは、端末装置の仮想キーボードで入力して第2のタッチ軌跡を生成する。端末装置の仮想キーボードにおけるユーザの第2のタッチ軌跡が取得されると、エンコーディング処理が、予め設定されたエンコーディングルールに従って第2のタッチ軌跡に対して実行され、第2のタッチ軌跡に対応するコードを生成する。エンコーディングルールは予め設定され、本実施形態では、第2のタッチ軌跡が仮想キーボード上を連続的に通過するボタンに対応するキャラクタがコードに結合されて、第2のタッチ軌跡に対応するコードを得る。キャラクタは、数字又は文字である。したがって、第2のタッチ軌跡が連続的に通過するボタンに対応する数字は、コードとして用いられても良い。或いは、第2のタッチ軌跡が連続的に通過するボタンに対応する文字が、コードとして用いられても良い。
図5に示すように、第2のタッチ軌跡情報は、ユーザにより描かれたL形の図形である。この図形は、ユーザにより単一ストロークで描かれている。L形図形のタッチ軌跡は、キーボード上の数字ボタン1478を連続的に通過し、1である軌跡の始点と、8である軌跡の終点を有する。タッチ軌跡の終点は、第2のタッチ軌跡の終了を示す。本実施形態では、エンコーディングルールは、第2のタッチ軌跡が仮想キーボード上を連続的に通過するボタンに対応するキャラクタを結合する。図5を参照すると、入力インタフェースの仮想キーボードは通常の数字キーボードであり、数字キーボードは10個の数字0−9を有し、各数字は1つのボタンに対応し、ユーザは数字キーボード上で任意の図形を描いても良く、図形を描画するときにユーザのタッチ軌跡が連続的に通過するボタンに対応する数字が、エンコーディングに使用される。したがって、本実施形態では、第2のタッチ軌跡に対応するコードは、1478である。入力インタフェースがPCの仮想キーボードであるとき、エンコーディングは、タッチ軌跡が通過するボタンに対応する文字に従って実行されても良い。
ステップ303:第2のタッチ軌跡に対応するコードと追加すべき単語との間のマッピング関係を確立し、該マッピング関係を予め確立された語彙集に格納する。
特に、第2のタッチ軌跡に対応するコード1478がステップ302で生成され、コード1478とステップ301で入力された追加すべき単語との間のマッピング関係が確立され、追加すべき単語はQQ account12345678である。つまり、コード1478は単語12345678を一意的に識別する。そして、マッピング関係が語彙集に格納される。本実施形態では、1つのユーザのタッチ軌跡がユニークなコードに対応する。しかしながら、理解すべきことに、1つのコードは複数の単語にも対応し得る。例えば、コード1478は、他の単語にも対応しても良い。例えば、ユーザが複数のQQ accountを有するとき、コード1478と単語とのマッピング関係が追加される限り、コード1478は複数のQQ accountに対応しても良い。
さらに、例えば、語彙集は、コードと単語との間のマッピング関係も、表1に示すように以下の形式で格納しても良い。
ステップ304:ユーザにより選択されたジェスチャ入力モードに従って、ジェスチャ入力モードに適合する第1のタッチ軌跡を取得する。
ステップ305:予め設定されたエンコーディングルールに従って第1のタッチ軌跡をエンコードし、第1のタッチ軌跡に対応するコードを得る。
このステップでは、設定されたエンコーディングルールは、ステップ302で第2のタッチ軌跡をエンコードするために用いられるエンコーディングルールと同じであり、特に、仮想キーボード上で第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合し、第1のタッチ軌跡に対応するコードを得る。
ステップ306:予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得する。
このステップでは、予め確立された語彙集は既にコードと単語との間のマッピング関係を格納しているので、コードに対応する候補単語は、得られたコードに従って語彙集を検索することにより取得できる。
本実施形態では、ユーザがユーザのQQ accountを入力する必要があるとき、ユーザは、端末装置の入力インタフェースをジェスチャ入力モードに切り替えても良い。ジェスチャ入力モードでは、ユーザは、入力インタフェース上で単一のストロークを有する図形を描き、端末装置をトリガして、ジェスチャ入力モードに従ってタッチ軌跡情報を取得し、タッチ軌跡情報を認識し、対応するコードを得る。例えば、ユーザのタッチ軌跡が通過する領域が1478であり、したがってコードは1478であると認識される。この例では、ローカルな語彙集は、コード1478に対応する候補単語、つまりQQ account12345678を取得するために問い合わせられる。
さらに、留意すべきことに、1つの候補単語が存在する場合、該候補単語(つまり、QQ account12345678)はユーザにより入力されるべき単語であり、複数の候補単語が存在する場合、該複数の候補単語は、該複数の候補単語の頻度の降順に従って格納され、格納された複数の候補単語は端末装置のスクリーンに表示され、ユーザはそれらの中から1つの候補単語をユーザにより入力されるべき単語として選択でき、そして最後に、端末装置は、格納された複数の候補単語の中からユーザにより選択された単語を、端末装置のスクリーンの特定領域に表示する。ここで、特定領域は、ユーザにより現在使用されているアプリケーションプログラム又はテキスト入力を待っているアプリケーションプログラムにより指定される入力領域である。
本実施形態で提供される入力処理方法では、ユーザにより描かれた単純な図形のタッチ軌跡、該タッチ軌跡に対応するコード、及び該コードと単語との間のマッピング関係は、予めローカルな語彙集に格納される。したがって、複雑な単語と単純な図形との間のマッピング関係が確立される。ここで、単語は、ユーザにより通常使用される幾つかの複雑な単語であり、例えばユーザのQQ account、電子メールアドレス、パスワード、等である。使用中、ユーザは、入力モードをジェスチャ入力モードに切り替え、入力インタフェース上で単一のストロークを有する図形を描くだけでよい。そして装置は、その図形のタッチ軌跡情報を認識し、タッチ軌跡情報に対応するコードを得て、コードと単語との間のマッピング関係に従って対応する候補単語について語彙集を検索し、候補単語をユーザにより入力されるべき単語として使用する。このように、ユーザは、単一の入力を用いて長く複雑な単語の入力を完了できる。それにより、入力効率及び精度を向上できる。
本実施形態で提供される入力処理方法は、複雑な単語の入力に適用可能である。従来の手書き入力と比べて、本実施形態で提供される入力処理方法では、描かれた図形及び文字の認識は実行されず、代わりに、描かれた図形のタッチ軌跡がエンコードされ、コードと単語との間のマッピング関係が確立される。例えば、L形図形が描かれると、その図形が文字Lなのか否かを認識する必要はない。代わりに、その図形のタッチ軌跡に従って対応するコードが得られ、そのコードに従って対応する単語が見付けられる。このように、入力効率が向上するだけでなく、入力精度も向上する。
図6は、本発明の入力処理方法の更に別の実施形態のフローチャートである。本実施形態では、本実施形態の技術的ソリューションは、方法が、移動電話機のような端末装置により実行され、入力モードが音声入力処理モードであり、第1の入力情報がユーザにより入力される音声情報である例を用いて詳細に紹介される。図6に示すように、方法は以下のステップを含む。
ステップ601:単語処理要求を受信する。ここで、単語処理要求は、音声単語処理モード及び追加されるべき単語を有し、単語処理要求は、単語を語彙集に追加するために用いられる。
本実施形態では、単語処理要求は、端末装置の入力インタフェースを用いたユーザによる入力である。図7は、端末装置の入力インタフェースの更に別の概略図である。先ず、ユーザは、入力インタフェースで、ユーザ定義単語を追加するためのページを開く。ページには対応するボタンが設定され、それぞれ異なる単語処理モードを表す。図4に示すように、ジェスチャ単語処理モード及び音声単語処理モードがある。ユーザが音声単語処理モードを選択すると、図7に示すページが現れる。音声単語処理モードで、ユーザは追加すべき単語を入力し、該単語の備考情報を設定する。備考は163 mailである。
ステップ602:単語処理要求に従って、ユーザにより入力され音声単語処理モードに一致する第2の音声情報を受信し、予め設定されたエンコーディングルールに従って第2の音声情報をエンコードして、第2の音声情報に対応するコードを生成する。
本実施形態では、単語処理要求に従って、ユーザにより入力され音声単語処理モードに一致する第2の音声情報が受信され、第2の音声情報は、端末装置の音声センサを用いて端末装置により集めされる。第2の音声情報が受信された後、予め設定されたエンコーディングルールに従って、第2の音声情報に対してエンコーディング処理が実行され、第2の音声情報に対応するコードを生成する。特に、エンコーディング処理は、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム又はDTW(dynamic time warping)アルゴリズムを用いて、第2の音声情報に対して実行され、第2の音声情報に対応するコードを得ても良い。
以下に、特定の例を用いて説明する。図7に示すように、音声単語処理モードでは、音声入力開始ボタン(音声入力終了ボタンとしても機能する)は、端末装置の入力インタフェースに設定されても良い。マイクロフォン又は端末装置の別の音声入力装置は、音声入力開始ボタンを押下し保持することによりオンにされる。ユーザは音声を発する。例えば、ユーザは電子メールアドレスの音声情報を発する。端末装置は、ユーザの音声情報を集め始める。ユーザは、音声入力開始ボタンを放す。このように、音声情報収集の1つの処理が完了し、集められた音声情報は第2の音声情報である。
第2の音声情報が集められた後、第2の音声情報は、音声情報に対応するコードを生成するためにエンコードされる。ここで、エンコーディングルールは予め設定される。エンコーディングルールは、従来一般的に用いられている音声認識アルゴリズム、例えばハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム又はDTW(dynamic time warping)アルゴリズムを用いて、集められた音声情報をキャラクタ列又は文字に変換することでも良い。エンコーディングルールは、本発明の実施形態で特に限定されない。ユーザにより入力された第2の音声情報をエンコーディングすることにより、第2の音声情報に対応するコードが得られる。本実施形態では、例えば、第2の音声情報に対応するコードはSjdegsogea4512である。
ステップ603:第2の音声情報に対応するコードと追加すべき単語との間のマッピング関係を確立し、該マッピング関係を語彙集に格納する。
特に、ステップ602で第2の音声情報に対応するコードSjdegsogea4512が生成され、コードSjdegsogea4512とステップ601で入力された追加されるべき単語とJacky.Chen@163.comの間のマッピング関係が確立される。ここで、コードSjdegsogea4512は単語Jacky.Chen@163.comを一意的に識別子、マッピング関係は語彙集に格納される。本実施形態では、1つのユーザの音声情報片がユニークなコードに対応する。留意すべきことに、1つのコードは複数の単語に対応しても良い。例えば、ユーザは複数の電子メールアドレスを有し、簡単に記憶するために、コードと対応する単語との間のマッピング関係が語彙集に追加される限り、ユーザは、電子メールの音声情報に対応するコードと複数の電子メールアドレスとの間のマッピング関係を確立する。
例えば、ローカルな語彙集は、コードと単語との間のマッピング関係も、表2に示すように以下の形式で格納しても良い。
ここで、audio 1、audio2、audio3は、ユーザにより入力された音声情報を記録する。
ステップ604:ユーザにより選択された音声入力モードに従って、音声入力モードに適合する第1の音声情報を取得する。
音声入力モードでは、第1の音声情報は、センサを用いて端末装置により集められる。
ステップ605:予め設定されたエンコーディングルールに従って第1の音声情報をエンコードし、第1の音声情報に対応するコードを得る。
このステップで用いられるエンコーディングルールは、ステップ602で用いられるエンコーディングルールと同じであり、特に、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第1の音声情報をエンコーディングして、第1の入力情報に対応するコードを得る。
ステップ606:予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得する。
このステップでは、予め確立された語彙集は既にコードと単語との間のマッピング関係を格納しているので、コードに対応する候補単語は、得られたコードに従って語彙集を検索することにより取得できる。
本実施形態では、ユーザがユーザの電子メールアドレスを入力する必要があるとき、ユーザは、先ず端末装置の入力インタフェースを音声入力モードに切り替える。音声入力モードでは、ユーザは、入力インタフェースの音声入力開始ボタンを押下し保持することにより音声情報を発し、端末装置をトリガして、音声入力モードに従って音声情報を取得し、音声情報を認識して該音声情報に対応するコードを得る。例えば、ユーザにより入力された音声情報に対応するコードはSjdegsogea4512であると認識される。この例では、ローカルな語彙集は、コードSjdegsogea4512に対応する候補単語、つまりJacky.Chen@163.comを取得するために問い合わせられる。
さらに、留意すべきことに、1つの候補単語が存在する場合、該候補単語(つまりJacky.Chen@163.com)はユーザにより入力されるべき単語であり、複数の候補単語が存在する場合、該複数の候補単語は、該複数の候補単語の頻度の降順に従って格納され、ユーザはそれらの中から1つの候補単語をユーザにより入力されるべき単語として選択できる。ユーザは、コードに対応する格納された複数の候補単語から入力されるべき単語を選択し、該単語を入力する。
本実施形態で提供される入力処理方法では、ユーザの短い音声情報、該音声情報に対応するコード、及び該コードと単語との間のマッピング関係は、予めローカルな語彙集に格納される。したがって、複雑な単語と音声情報との間のマッピング関係が確立される。ここで、単語は、ユーザにより通常使用される幾つかの複雑な単語であり、例えばユーザの電子メールアドレス、パスワード、移動電話機の電話番号、等である。使用中、ユーザは、入力モードを音声入力モードに切り替え、対応する動作を実行してユーザの音声情報を入力するだけでよい。装置は、音声情報を認識し、該音声情報に対応するコ―ドを認識し、コードと単語との間のマッピング関係に従って、対応する候補単語についてローカルな語彙集を検索する。このように、長い複雑な単語の入力は、短い音声情報を入力することにより完了できる。それにより、入力効率を向上できる。
本実施形態で提供される入力処理方法は、振動する、手書きが容易でない操作シナリオ、例えばユーザが運転中に入力する必要があるときに適用可能である。入力モードを音声入力モードに切り替えることにより、ユーザは、単に短い音声情報を入力することにより、複雑な単語の入力を完了できる。これは、便利であり、入力効率を向上する。従来の音声入力と異なり、本実施形態で提供される入力処理方法では、音声及び文字の認識は実行されず、代わりに、入力された音声が単に単語にマッピングされ、入力精度を向上する。例えば、ユーザにより入力された音声情報が「My Email」であるとき、プログラムは、音声情報及び文字「My Email」を認識しない。また、プログラムは、文字「My Email」をユーザに返す必要がない。代わりに、ユーザの電子メールアドレスが、音声信号に対応するコードと単語との間のマッピング関係に従って返される。
さらに、留意すべきことに、本発明では、キャラクタ入力モードも、ユーザにより入力されるべき単語を取得するために用いられても良い。特に、ユーザは、入力インタフェースをキャラクタ入力モードに切り替えても良い。このモードで、端末装置は、ユーザにより入力されるキャラクタ情報を取得し、キャラクタ情報に対応する候補単語をインデックス付けしローカルな語彙集から読み出し、キャラクタ情報に対応する見付かった複数の候補単語を頻度の降順に従って並べ替え、端末装置のインタフェースを用いて、並べ替えた複数の候補単語をユーザに表示する。ユーザは、返された複数の候補単語から入力すべき単語を選択する。端末装置が、ユーザにより選択された入力すべき単語を取得した後、ユーザが後に入力し得る単語を予測するために、単語の文脈に従って、ローカルな語彙集の中で第2のインデックス付けが更に実行されても良い。第2のインデックス付けの後、ユーザは、キャラクタを更に入力することなく、第2のインデックス付けの後に得られた候補単語から入力すべき単語を直接選択しても良い。
例えば、ユーザは、ピンインを用いて「ao」を入力し、「ao」に従って、奥、熬、澳、傲のような複数の対応する候補単語がローカルな語彙集の中で見付かる。候補単語は、頻度の降順に従って並べ替えられた後に出力されても良い。ユーザが候補単語「奥」をユーザにより入力されるべき単語として選択すると、「奥」に従って、ローカルな語彙集において第2のインデックス付けが更に実行され、ユーザによる選択のために、ローカルな語彙集から、
、巴、林、美のような「奥」に関連する複数の候補単語を得ても良い。ユーザにより選択された第2の単語が
であるとき、文脈は
であり、この場合には、
に従って、
及び
のような複数の関連する候補単語が更に得られても良い。最後に、ユーザにより選択された
が、ユーザにより入力されるべき単語として取得される。
図8は、本発明の入力処理装置の一実施形態の概略的構造図である。図8に示すように、本実施形態で提供される入力処理装置800は、情報取得モジュール801、エンコーディング処理モジュール802、問い合わせ及び取得モジュール803を有する。情報取得モジュール801は、ユーザにより選択された入力モードに従って、ユーザにより入力され入力モードに適合する第1の入力情報を取得するよう構成される。入力モードは、ジェスチャ入力モード又は音声入力モードである。エンコーディング処理モジュール802は、予め設定されたエンコーディングルールに従って第1の入力情報をエンコードし、第1の入力情報に対応するコードを得るよう構成される。問い合わせ及び取得モジュール803は、予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得するよう構成される。
本実施形態の入力処理装置800は、図1の方法の実施形態の技術的ソリューションを実行しても良い。また、実施原理は、方法の実施形態の実施原理と同様であり、ここで詳細を繰り返さない。
本実施形態では、ユーザにより選択された入力モードに従って、入力モードに適合する第1の入力情報が取得され、予め設定されたエンコーディングルールに従って、第1の入力情報に対してエンコーディング処理が実行され、第1の入力情報に対応するコードを得て、最後に、予め確立された語彙集が問い合わせられ、コードに対応する候補単語を得る。異なる入力モードに従って第1の入力情報を取得し、第1の入力情報に従って対応するコードを取得し、次にエンコーディングにより、ユーザにより入力され単語を取得することにより、複雑な単語の迅速且つ正確な入力が行われ、それにより、入力効率を効果的に向上する。
さらに、本発明の別の実施形態では、図8に示した上述の実施形態に基づき、入力処理装は、タッチスクリーン及び音声センサを更に有し、ユーザがタッチ操作を実行するために仮想キーボードがタッチスクリーンに表示される。音声センサは、音声を集めるよう構成される。また、情報取得モジュール801は、特に、入力モードがジェスチャ入力モードであるとき、入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡を取得するよう構成され、エンコーディング処理モジュール802は、特に、情報取得モジュール801により取得された第1の入力情報が入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡であるとき、予め設定されたエンコーディングルールに従って、仮想キーボード上で第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合し、第1の入力情報に対応するコードを得るよう構成される。
情報取得モジュール801は、特に、入力モードが音声入力モードであるとき、入力処理装置の音声センサを用いて、第1の音声情報を集めるよう更に構成される。エンコーディング処理モジュール802は、特に、情報取得モジュール801により取得された第1の入力情報が第1の音声情報であるとき、予め設定されたエンコーディングルールに従って、例えばハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第1の音声情報をエンコードし、第1の入力情報に対応するコードを得るよう構成される。
予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得した後に、問い合わせ及び取得モジュール803は、コードに対応する複数の候補単語が取得されたとき、該複数の候補単語を頻度の降順に従って並べ替え、並べ替えた複数の候補単語をユーザに表示し、コードに対応する単語及びユーザによる入力を受信するよう更に構成され、コードに対応する単語は、並べ替えた複数の候補単語からユーザにより選択された単語である。
図9は、本発明の入力処理装置の別の実施形態の概略的構造図である。図9に示すように、本実施形態で提供される入力処理装置900は、受信モジュール901、情報取得モジュール902、エンコーディング処理モジュール903、単語記憶モジュール904、問い合わせ及び取得モジュール905、並べ替え処理モジュール906、ディスプレイモジュール907を有する。受信モジュール901は、単語処理要求を受信するよう構成される。単語処理要求は、単語を語彙集に追加することを要求するために用いられる。単語処理要求は、単語処理モード及び追加されるべき単語を有する。単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードである。情報取得モジュール902は、単語処理要求に従って、ユーザにより入力され単語処理モードに適合する第2の入力情報を受信するよう構成される。エンコーディング処理モジュール903は、予め設定されたエンコーディングルールに従って第2の入力情報をエンコードし、第2の入力情報に対応するコードを生成するよう構成される。単語記憶モジュール904は、第2の入力情報に対応するコードと追加すべき単語との間のマッピング関係を確立し、該マッピング関係を語彙集に格納するよう構成される。情報取得モジュール902は、ユーザにより選択された入力モードに従って、ユーザにより入力され入力モードに適合する第1の入力情報を取得するよう構成される。入力モードは、ジェスチャ入力モード又は音声入力モードである。エンコーディング処理モジュール903は、予め設定されたエンコーディングルールに従って第1の入力情報をエンコードし、第1の入力情報に対応するコードを得るよう更に構成される。問い合わせ及び取得モジュール905は、予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得するよう構成される。
本実施形態では、受信モジュール901により受信された単語処理要求は、端末装置の入力インタフェースを用いてユーザにより入力され、単語処理要求は、単語を語彙集に追加することを要求するために用いられ、単語処理要求は、単語処理モードと追加されるべき単語を有し、単語処理モードは、音声単語処理モード又はジェスチャ単語処理モードである。追加されるべき単語は、語彙集内に存在しない単語であり、単語は単一の単語、句、文、又は数字及び文字のようなキャラクタの長い列、例えばQQ account8945145182、又は電子メールアドレスyagneos235@hotmail.com.cnであっても良い。
情報取得モジュール902は、単語処理要求に従って、ユーザにより入力され単語処理モードに適合する第2の入力情報を受信するよう構成される。情報取得モジュール902は、特に、単語処理モードがジェスチャ単語処理モードであるとき、入力処理装置の仮想キーボード上のユーザの第2のタッチ軌跡を取得し、単語処理モードが音声単語処理モードであるとき、入力処理装置の音声センサを用いて第2の音声情報を集めるよう構成される。
エンコーディング処理モジュール903は、予め設定されたエンコーディングルールに従って第2の入力情報をエンコードし、第2の入力情報に対応するコードを生成するよう構成される。本実施形態では、異なる第2の入力情報にはエンコーディング方法が採用され、エンコーディングルールは予め定められる。エンコーディング処理モジュール903は、特に、情報取得モジュール902により取得された第2の入力情報が入力処理装置の仮想キーボード上のユーザの第2のタッチ軌跡であるとき、仮想キーボード上で第2のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、第2の入力情報に対応するコードを得て、情報取得モジュール902により取得された第2の入力情報が第2の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第2の音声情報をエンコードして、第2の入力情報に対応するコードを得るよう構成される。第2の入力情報に対応するコードは、第2の入力情報を一意的に識別する。
単語記憶モジュール904は、第2の入力情報に対応するコードと追加すべき単語との間のマッピング関係を確立し、該マッピング関係を語彙集に格納するよう構成される。本実施形態では、単語記憶モジュール904は、エンコーディング処理モジュール903により生成された第2の入力情報に対応するコードと受信モジュール901により受信された追加されるべき単語との間のマッピング関係を確立し、マッピング関係を予め設定された語彙集に格納する。このように、ユーザの入力情報と単語との間のマッピング関係が確立され、該マッピング関係はローカルな語彙集に格納される。ユーザが入力情報を再び入力するとき、ユーザの入力情報は認識でき、入力情報に対応するコードが取得できる。
本実施形態では、情報取得モジュール902は、ユーザにより選択された入力モードに従って、ユーザにより入力され入力モードに適合する第1の入力情報を取得するよう構成される。入力モードは、ジェスチャ入力モード又は音声入力モードである。情報取得モジュール902は、特に、入力モードがジェスチャ入力モードであるとき、入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡を取得し、又は入力モードが音声入力モードであるとき、入力処理装置の音声センサを用いて第1の音声情報を集めるよう構成される。
情報取得モジュール902がユーザにより入力された第1の入力情報を取得した後、エンコーディング処理モジュール903は、予め設定されたエンコーディングルールに従って第1の入力情報をエンコードして、第1の入力情報に対応するコードを得る。エンコーディング処理モジュール903は、特に、取得された入力情報が入力処理装置の仮想キーボード上の第1のタッチ軌跡であるとき、仮想キーボード上で第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、第1の入力情報に対応するコードを得るよう構成される。キャラクタは、数字又は文字であっても良い。つまり、コードは、第1のタッチ軌跡が連続的に通過するボタンに対応する数字を結合することにより得られても良い。あるいは、コードは、第1のタッチ軌跡が連続的に通過するボタンに対応する文字を結合することにより得られても良い。
エンコーディング処理モジュール903は、取得された第1の入力情報が第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第1の音声情報をエンコードして、第1の入力情報に対応するコードを得るよう更に構成される。
問い合わせ及び取得モジュール905は、予め確立された語彙集に問い合わせて、コードに対応する候補単語を取得する。
特に、問い合わせ及び取得モジュール905は、エンコーディング処理モジュール903により得られた、第1の入力情報に対応するコードに従って予め確立された語彙集を検索し、語彙集はコードと対応する単語との間のマッピング関係を格納する。そして、問い合わせ及び取得モジュール905は、コードと単語との間のマッピング関係に従って、コードに対応する候補単語を取得する。さらに、留意すべきことに、問い合わせ及び取得モジュール905が1つの候補単語を取得する場合、候補単語はユーザにより入力されるべき単語であり、問い合わせ及び取得モジュール905が複数の候補単語を取得する場合、並べ替え処理モジュール906は、頻度の降順に従って複数の候補単語を並べ替え、ユーザによる選択のために入力処理装置のスクリーンに並べ替えた複数の候補単語を表示する。ディスプレイモジュール907は、入力処理装置のスクリーンの特定領域に、並べ替えられた複数の候補単語からユーザにより選択された単語を表示するよう構成される。
本実施形態で提供される入力処理装置800は、本発明の方法の実施形態の技術的ソリューションを実行するよう構成されても良い。また、実施原理は、方法の実施形態の実施原理と同様であり、ここで詳細を繰り返さない。
図10は、本発明の入力処理装置の更に別の実施形態の概略的構造図である。図10に示すように、本実施形態の入力処理装置700は、少なくとも1つのプロセッサ701、メモリ702及びバスを有する。プロセッサ701及びメモリ702は、バスに接続され、バスを用いて互いに通信を実行する。バスは、ISA(Industry Standard Architecture)バス、PCI(Peripheral ComponentInterconnect)バス、又はEISA(Extended Industry Standard Architecture)バス等であっても良い。バスは、アドレスバス、データバス、制御バス、等に分割されても良い。説明を簡単にするため、バスは、図10に実線で示すのみであるが、1本のバス又は1種類のバスのみが存在することを示すものではない。
メモリ702は、実行可能プログラムコードを格納するよう構成される。プログラムコードは、コンピュータ演算命令を有する。メモリ702は、高速RAM(high-rate Random Access Memory)を有しても良く、不揮発性メモリ、例えば少なくとも1つのディスクメモリを有しても良い。
一実施形態では、プロセッサ701は、メモリ702に格納された実行可能プログラムコードを読み出すことにより、実行可能プログラムコードに対応するプログラムを実行し、ユーザにより選択された入力モードに従って、該ユーザにより入力され該入力モードに適合する第1の入力情報を取得し、該入力モードはジェスチャ入力モード又は音声入力モードであり、予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコードして第1の入力情報に対応するコードを得て、予め確立された語彙集に問い合わせて前記コードに対応する候補単語を取得する。
特に、一実施形態では、入力処理装置は、タッチスクリーン及び音声センサを更に有し、仮想キーボードは、ユーザがタッチ操作を実行するためにタッチスクリーンに表示される。音声センサは、音声を集めるよう構成される。予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコードして第1の入力情報に対応するコードを得るステップは、取得された第1の入力情報が入力処理装置の仮想キーボード上のユーザの第1のタッチ軌跡であるとき、仮想キーボード上で第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、第1の入力情報に対応するコードを得て、取得された第1の入力情報が第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて第1の音声情報をエンコーディングして、第1の入力情報に対応するコードを得るステップを有する。
さらに、一実施形態では、プロセッサ701は、メモリ702に格納された実行可能プログラムコードを読み出すことにより、実行可能プログラムコードに対応するプログラムを実行し、更に、単語処理要求を受信し、前記単語処理要求は単語処理モードと追加されるべき単語を有し、前記単語処理モードはジェスチャ単語処理モード又は音声単語処理モードであり、前記単語処理モードに従って、前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信し、予め設定されたエンコーディングルールに従って前記第2の入力情報をエンコードして、前記第2の入力情報に対応するコードを生成し、前記第2の入力情報に対応するコードと前記追加されるべき単語との間のマッピング関係を確立し、前記マッピング関係を前記語彙集に格納する。
当業者は、前述の方法の実施形態のステップの全部又は一部が関連するハードウェアに指示するプログラムにより実装されても良いことを理解する。前述のプログラムは、コンピュータ可読記憶媒体に格納されても良い。プログラムが実行するとき、前述の方法の実施形態のステップが実行される。前述の記憶媒体は、ROM、RAM、磁気ディスク又は光ディスクのようなプログラムコードを格納可能な種々の媒体を含む。
最後に、留意すべきことに、前述の実施形態は、単に本発明の技術的ソリューションを説明するためであり、本発明の範囲を限定しない。本発明は前述の実施形態を参照して詳細に説明されたが、当業者は、本発明の実施形態の技術的ソリューションの精神及び範囲から逸脱することなく、彼らが前述の実施形態で説明した技術的ソリューションに変更を行い、又はそれら実施形態の一部又は全部の技術的特徴を等価に置換できることを理解する。

Claims (18)

  1. 端末装置により、ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップであって、前記入力モードはジェスチャ入力モード又は音声入力モードである、ステップと、
    前記端末装置により、予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングして、前記第1の入力情報に対応するコードを得るステップと、
    前記端末装置により、予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するステップと、
    を有する入力処理方法。
  2. 前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップは、
    前記入力モードが前記ジェスチャ入力モードであるとき、前記端末装置の仮想キーボード上の前記ユーザの第1のタッチ軌跡を取得するステップ、又は前記入力モードが前記音声入力モードであるとき、前記端末装置の音声センサを用いて第1の音声情報を集めるステップ、を有する、請求項1に記載の入力処理方法。
  3. 予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングして、前記第1の入力情報に対応するコードを得るステップは、
    前記の取得された第1の入力情報が前記端末装置の前記仮想キーボード上の前記ユーザの前記第1のタッチ軌跡であるとき、前記仮想キーボード上で前記第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第1の入力情報に対応する前記コードを得るステップと、
    前記の取得された第1の入力情報が前記第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて前記第1の音声情報をエンコーディングして、前記第1の入力情報に対応する前記コードを得るステップと、
    を有する、請求項2に記載の入力処理方法。
  4. 前記端末装置により、単語処理要求を受信するステップであって、前記単語処理要求は単語を前記語彙集に追加することを要求するために用いられ、前記単語処理要求は、単語処理モードと追加すべき単語とを有し、前記単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードである、ステップと、
    前記端末装置により、前記単語処理要求に従って前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信し、前記予め設定されたエンコーディングルールに従って前記第2の入力情報をエンコーディングして、前記第2の入力情報に対応するコードを生成するステップと、
    前記端末装置により、前記第2の入力情報に対応する前記コードと前記追加されるべき単語との間のマッピング関係を確立し、該マッピング関係を前記語彙集に格納するステップと、
    を更に有する請求項1乃至3のいずれか一項に記載の入力処理方法。
  5. 前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信するステップは、
    前記単語処理モードが前記ジェスチャ単語処理モードであるとき、前記端末装置の前記仮想キーボード上の前記ユーザの第2のタッチ軌跡を取得するステップ、又は前記単語処理モードが前記音声単語処理モードであるとき、前記端末装置の前記音声センサを用いて第2の音声情報を集めるステップ、を有する、請求項4に記載の入力処理方法。
  6. 前記予め設定されたエンコーディングルールに従って前記第2の入力情報をエンコーディングして、前記第2の入力情報に対応するコードを生成するステップは、
    前記の取得された第2の入力情報が前記端末装置の前記仮想キーボード上の前記ユーザの前記第2のタッチ軌跡であるとき、前記仮想キーボード上で前記第2のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第2の入力情報に対応する前記コードを得るステップと、
    前記の取得された第2の入力情報が前記第2の音声情報であるとき、前記ハッシュアルゴリズム、前記HMM(hidden Markov model)アルゴリズム、又は前記DTW(dynamic time warping)アルゴリズムを用いて前記第2の音声情報をエンコーディングして、前記第2の入力情報に対応する前記コードを得るステップと、
    を有する、請求項5に記載の入力処理方法。
  7. 予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するステップの後に、前記方法は、
    前記コードに対応する複数の候補単語が取得されたとき、前記複数の候補単語を頻度の降順に従って配置し、前記端末装置のスクリーンに、前記の並べ替えた複数の候補単語を、ユーザによる選択のために表示するステップと、
    前記端末装置の前記スクリーンの特定領域に、前記並べ替えた複数の候補単語からユーザにより選択された単語を表示するステップと、
    を更に有する請求項1乃至6のいずれか一項に記載の入力処理方法。
  8. ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するよう構成される情報取得モジュールであって、、前記入力モードはジェスチャ入力モード又は音声入力モードである、情報取得モジュールと、
    予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコーディングして、前記第1の入力情報に対応するコードを得るよう構成されるエンコーディング処理モジュールと、
    予め確立された語彙集に問い合わせて、前記コードに対応する候補単語を取得するよう構成される問い合わせ及び取得モジュールと、
    を有する入力処理装置。
  9. 前記情報取得モジュールは、前記入力モードが前記ジェスチャ入力モードであるとき、前記入力処理装置の仮想キーボード上の前記ユーザの第1のタッチ軌跡を取得するよう構成され、又は
    前記情報取得モジュールは、前記入力モードが前記音声入力モードであるとき、前記入力処理装置の音声センサを用いて第1の音声情報を集めるよう構成される、
    請求項8に記載の入力処理装置。
  10. 前記エンコーディング処理モジュールは、前記情報取得モジュールにより取得された前記第1の入力情報が前記入力処理装置の前記仮想キーボード上の前記第1のタッチ軌跡であるとき、前記仮想キーボード上で前記第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第1の入力情報に対応する前記コードを得るよう構成され、又は前記エンコーディング処理モジュールは、前記情報取得モジュールにより取得された前記第1の入力情報が前記第1の音声情報であるとき、ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて前記第1の音声情報をエンコードして、前記第1の入力情報に対応する前記コードを得るよう構成される、
    請求項9に記載の入力処理装置。
  11. 前記入力処理装置は、受信モジュールと単語記憶モジュールとを更に有し、
    前記受信モジュールは、単語処理要求を受信するよう構成され、前記単語処理要求は、単語を前記語彙集に追加することを要求するために用いられ、前記単語処理要求は、単語処理モードと追加すべき単語とを有し、前記単語処理モードは、ジェスチャ単語処理モード又は音声単語処理モードであり、
    前記情報取得モジュールは、前記単語処理要求に従って、前記ユーザにより入力され前記単語処理モードに適合する第2の入力情報を受信するよう更に構成され、
    前記エンコーディング処理モジュールは、前記予め設定されたエンコーディングルールに従って、前記第2の入力情報をエンコードして、前記第2の入力情報に対応するコードを生成するよう更に構成され、
    前記単語記憶モジュールは、前記第2の入力情報に対応する前記コードと前記追加すべき単語との間のマッピング関係を確立し、前記マッピング関係を前記語彙集に格納するよう構成される、
    請求項9に記載の入力処理装置。
  12. 前記情報取得モジュールは、前記単語処理モードが前記ジェスチャ単語処理モードであるとき、前記入力処理装置の前記仮想キーボード上の前記ユーザの第2のタッチ軌跡を取得するよう構成され、又は
    前記情報取得モジュールは、前記単語処理モードが前記音声単語処理モードであるとき、前記入力処理装置の音声センサを用いて第2の音声情報を集めるよう構成される、
    請求項11に記載の入力処理装置。
  13. 前記エンコーディング処理モジュールは、前記情報取得モジュールにより取得された前記第2の入力情報が前記入力処理装置の前記仮想キーボード上の前記ユーザの前記第2のタッチ軌跡であるとき、前記仮想キーボード上で前記第2のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第2の入力情報に対応する前記コードを得るよう構成され、又は
    前記エンコーディング処理モジュールは、前記情報取得モジュールにより取得された前記第2の入力情報が前記第2の音声情報であるとき、前記ハッシュアルゴリズム、前記HMM(hidden Markov model)アルゴリズム、又は前記DTW(dynamic time warping)アルゴリズムを用いて前記第2の音声情報をエンコードして、前記第2の入力情報に対応する前記コードを得るよう構成される、
    請求項12に記載の入力処理装置。
  14. 前記コードに対応する複数の候補単語が取得されたとき、前記複数の候補単語を頻度の降順に従って並べ替え、前記ユーザによる選択のために、前記入力処理装置のスクリーンに、前記の並べ替えた複数の候補単語を表示するよう構成される並べ替え処理モジュールと、
    前記入力処理装置の前記スクリーンの特定領域に、前記並べ替えた複数の候補単語から前記ユーザにより選択された単語を表示するよう構成されるディスプレイモジュールと、
    を更に有する請求項8に記載の入力処理装置。
  15. プログラムであって、システムに、
    ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得するステップであって、前記入力モードはジェスチャ入力モード又は音声入力モードである、ステップと、
    予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコードして第1の入力情報に対応するコードを得るステップと、
    予め確立された語彙集に問い合わせて前記コードに対応する候補単語を取得するステップ、
    を実行させるプログラム。
  16. プロセッサと、メモリと、バスと、を有し、前記プロセッサ及び前記メモリは、互いに接続され及び前記バスを用いて通信を実施し、前記プロセッサは、前記メモリに格納された実行可能プログラムコードを読み出すことにより前記実行可能プログラムコードに対応するプログラムを実行して、
    ユーザにより選択された入力モードに従って、前記ユーザにより入力され前記入力モードに適合する第1の入力情報を取得し、前記入力モードはジェスチャ入力モード又は音声入力モードであり、
    予め設定されたエンコーディングルールに従って前記第1の入力情報をエンコードして前記ぢあ1の入力情報に対応するコードを得て、
    予め確立された語彙集に問い合わせて前記コードに対応する候補単語を取得する、
    入力処理装置。
  17. 前記入力処理装置は、タッチスクリーンを更に有し、ユーザがタッチ操作を実行するために仮想キーボードが前記タッチスクリーンに表示され、前記第1の入力情報は前記仮想キーボード上の第1のタッチ軌跡であり、
    前記プロセッサは、前記メモリに格納された前記実行可能プログラムコードを読み出すことにより前記実行可能プログラムコードに対応する前記プログラムを実行して、
    前記仮想キーボード上で前記第1のタッチ軌跡が連続的に通過するボタンに対応するキャラクタを結合して、前記第1の入力情報に対応する前記コードを得る、
    請求項16に記載の入力処理装置。
  18. 前記入力処理装置は、音声センサを更に有し、前記音声センサは、音声を集めるよう構成され、前記第1の入力情報は、前記音声センサにより集められた第1の音声情報であり、
    前記プロセッサは、前記メモリに格納された前記実行可能プログラムコードを読み出すことにより前記実行可能プログラムコードに対応するプログラムを実行して、
    ハッシュアルゴリズム、HMM(hidden Markov model)アルゴリズム、又はDTW(dynamic time warping)アルゴリズムを用いて前記第1の音声情報をエンコードして、前記第1の入力情報に対応する前記コードを得る、
    請求項16に記載の入力処理装置。
JP2014553610A 2012-12-31 2013-07-31 入力処理方法及び装置 Expired - Fee Related JP5860171B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210590206.5 2012-12-31
CN201210590206.5A CN103064530B (zh) 2012-12-31 2012-12-31 输入处理方法和装置
PCT/CN2013/080480 WO2014101410A1 (zh) 2012-12-31 2013-07-31 输入处理方法和装置

Publications (2)

Publication Number Publication Date
JP2015510176A true JP2015510176A (ja) 2015-04-02
JP5860171B2 JP5860171B2 (ja) 2016-02-16

Family

ID=48107181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014553610A Expired - Fee Related JP5860171B2 (ja) 2012-12-31 2013-07-31 入力処理方法及び装置

Country Status (10)

Country Link
US (1) US20140184514A1 (ja)
EP (1) EP2765473A4 (ja)
JP (1) JP5860171B2 (ja)
KR (2) KR101586890B1 (ja)
CN (1) CN103064530B (ja)
AU (1) AU2013270485C1 (ja)
BR (1) BR112013034056A2 (ja)
RU (1) RU2589873C2 (ja)
TW (1) TWI552008B (ja)
WO (1) WO2014101410A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527928A (ja) * 2015-06-25 2017-09-21 小米科技有限責任公司Xiaomi Inc. テキスト入力方法、装置、プログラム及び記録媒体
JP2018072568A (ja) * 2016-10-28 2018-05-10 株式会社リクルートライフスタイル 音声入力装置、音声入力方法及び音声入力プログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103064530B (zh) * 2012-12-31 2017-03-08 华为技术有限公司 输入处理方法和装置
KR102063766B1 (ko) * 2013-09-17 2020-01-08 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
JP6342734B2 (ja) * 2014-07-10 2018-06-13 大和製衡株式会社
TWI634473B (zh) * 2014-10-29 2018-09-01 富智康(香港)有限公司 掌上型電子裝置的輸入法自動切換系統及方法
US20170177205A1 (en) * 2015-12-22 2017-06-22 Mediatek Inc. Input method for recognizing user input according to vector combination derived from single-stroke input and associated non-transitory machine readable medium
CN105700448B (zh) * 2016-01-29 2018-06-08 中国联合网络通信集团有限公司 远程监控方法和远程监控系统
US10565493B2 (en) * 2016-09-22 2020-02-18 Salesforce.Com, Inc. Pointer sentinel mixture architecture
CN107680589B (zh) * 2017-09-05 2021-02-05 百度在线网络技术(北京)有限公司 语音信息交互方法、装置及其设备
CN107885348A (zh) * 2017-11-27 2018-04-06 牡丹江师范学院 一种移动通信终端设备的日语输入装置和方法
CN108170353A (zh) * 2017-12-04 2018-06-15 阿里巴巴集团控股有限公司 终端设备执行指令的方法及装置
CN110580103A (zh) * 2018-06-11 2019-12-17 阿里巴巴集团控股有限公司 数据处理方法、装置和机器可读介质
US11557278B2 (en) * 2020-12-10 2023-01-17 Google Llc Speaker dependent follow up actions and warm words
CN112783337B (zh) * 2020-12-31 2024-04-12 科大讯飞股份有限公司 输入法候选项的排序方法及相关模型的训练方法
CN113157319A (zh) * 2021-04-27 2021-07-23 上海申铁信息工程有限公司 一种phm系统的规则编码装置及方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202794A (ja) * 1992-12-28 1994-07-22 Toshiba Corp ペン入力方式の情報処理装置
JPH08137611A (ja) * 1994-11-09 1996-05-31 Toshiba Corp ジェスチャイメージ登録方法及び文書作成装置
JP2006277314A (ja) * 2005-03-29 2006-10-12 Nec Saitama Ltd アドレス入力装置、そのアドレス入力方法およびそのアドレス入力装置をもつ電子機器
JP2007141204A (ja) * 2005-11-16 2007-06-07 Korea Electronics Telecommun アナログジョイスティックコントローラを用いた文字入力システム及び方法
JP2012073757A (ja) * 2010-09-28 2012-04-12 Kyocera Corp 文字入力装置、文字入力方法および文字入力プログラム
JP2012083864A (ja) * 2010-10-07 2012-04-26 Kyocera Corp 文字入力装置、文字入力方法および文字編集プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7082391B1 (en) * 1998-07-14 2006-07-25 Intel Corporation Automatic speech recognition
US7098896B2 (en) * 2003-01-16 2006-08-29 Forword Input Inc. System and method for continuous stroke word-based text input
JP2005275652A (ja) 2004-03-24 2005-10-06 Canon Inc 入力軌跡処理装置および入力軌跡処理方法
JP2007086976A (ja) 2005-09-21 2007-04-05 Mitsubishi Electric Corp 携帯機器
US7698326B2 (en) * 2006-11-27 2010-04-13 Sony Ericsson Mobile Communications Ab Word prediction
WO2008069519A1 (en) * 2006-12-04 2008-06-12 Electronics And Telecommunications Research Institute Gesture/speech integrated recognition system and method
US7895518B2 (en) * 2007-04-27 2011-02-22 Shapewriter Inc. System and method for preview and selection of words
WO2009036293A1 (en) * 2007-09-12 2009-03-19 Macfarlane Scott S Highly compact keyboards
CN101393493B (zh) * 2007-09-19 2011-01-12 北京三星通信技术研究有限公司 自动注册指定操作的手写笔迹的方法和装置
US20090182562A1 (en) * 2008-01-14 2009-07-16 Garmin Ltd. Dynamic user interface for automated speech recognition
KR20090107364A (ko) * 2008-04-08 2009-10-13 엘지전자 주식회사 이동 단말기 및 그 메뉴 제어방법
US20100114887A1 (en) * 2008-10-17 2010-05-06 Google Inc. Textual Disambiguation Using Social Connections
US9519353B2 (en) * 2009-03-30 2016-12-13 Symbol Technologies, Llc Combined speech and touch input for observation symbol mappings
US9174123B2 (en) * 2009-11-09 2015-11-03 Invensense, Inc. Handheld computer systems and techniques for character and command recognition related to human movements
US8782556B2 (en) * 2010-02-12 2014-07-15 Microsoft Corporation User-centric soft keyboard predictive technologies
JP5642809B2 (ja) * 2010-03-12 2014-12-17 ニュアンス コミュニケーションズ, インコーポレイテッド 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム
CN102467336B (zh) * 2010-11-19 2013-10-30 联想(北京)有限公司 电子设备及其对象选择方法
US8490008B2 (en) * 2011-11-10 2013-07-16 Research In Motion Limited Touchscreen keyboard predictive display and generation of a set of characters
CN102520790A (zh) * 2011-11-23 2012-06-27 中兴通讯股份有限公司 一种基于图像传感模块的字符输入方法、装置及终端
US8713464B2 (en) * 2012-04-30 2014-04-29 Dov Nir Aides System and method for text input with a multi-touch screen
CN102819567B (zh) * 2012-07-17 2016-04-20 重庆优腾信息技术有限公司 一种电子设备的联系人信息检索方法和系统
US8850350B2 (en) * 2012-10-16 2014-09-30 Google Inc. Partial gesture text entry
CN103064530B (zh) * 2012-12-31 2017-03-08 华为技术有限公司 输入处理方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06202794A (ja) * 1992-12-28 1994-07-22 Toshiba Corp ペン入力方式の情報処理装置
JPH08137611A (ja) * 1994-11-09 1996-05-31 Toshiba Corp ジェスチャイメージ登録方法及び文書作成装置
JP2006277314A (ja) * 2005-03-29 2006-10-12 Nec Saitama Ltd アドレス入力装置、そのアドレス入力方法およびそのアドレス入力装置をもつ電子機器
JP2007141204A (ja) * 2005-11-16 2007-06-07 Korea Electronics Telecommun アナログジョイスティックコントローラを用いた文字入力システム及び方法
JP2012073757A (ja) * 2010-09-28 2012-04-12 Kyocera Corp 文字入力装置、文字入力方法および文字入力プログラム
JP2012083864A (ja) * 2010-10-07 2012-04-26 Kyocera Corp 文字入力装置、文字入力方法および文字編集プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017527928A (ja) * 2015-06-25 2017-09-21 小米科技有限責任公司Xiaomi Inc. テキスト入力方法、装置、プログラム及び記録媒体
JP2018072568A (ja) * 2016-10-28 2018-05-10 株式会社リクルートライフスタイル 音声入力装置、音声入力方法及び音声入力プログラム

Also Published As

Publication number Publication date
US20140184514A1 (en) 2014-07-03
KR20160011230A (ko) 2016-01-29
KR20140114280A (ko) 2014-09-26
AU2013270485A1 (en) 2014-06-26
EP2765473A4 (en) 2014-12-10
EP2765473A1 (en) 2014-08-13
JP5860171B2 (ja) 2016-02-16
CN103064530B (zh) 2017-03-08
KR101586890B1 (ko) 2016-01-19
CN103064530A (zh) 2013-04-24
TWI552008B (zh) 2016-10-01
TW201426362A (zh) 2014-07-01
RU2589873C2 (ru) 2016-07-10
RU2014129212A (ru) 2016-02-10
AU2013270485C1 (en) 2016-01-21
AU2013270485B2 (en) 2015-09-10
BR112013034056A2 (pt) 2017-02-07
WO2014101410A1 (zh) 2014-07-03

Similar Documents

Publication Publication Date Title
JP5860171B2 (ja) 入力処理方法及び装置
US10698604B2 (en) Typing assistance for editing
US7363224B2 (en) Method for entering text
JP3962763B2 (ja) 対話支援装置
WO2020215554A1 (zh) 语音识别方法、装置、设备及计算机可读存储介质
JP6526608B2 (ja) 辞書更新装置およびプログラム
JP2019532376A (ja) 候補項目提示方法および端末デバイス
EP3142108B1 (en) Reducing latency caused by switching input modalities
US11829433B2 (en) Contextual deep bookmarking
JP2005508031A (ja) 部首に基づいた、適合化可能な画の書き順システム
JP2013149273A (ja) 入力順非依存式文字入力機構を提供するための方法、装置、およびコンピュータプログラム
CN102999639A (zh) 一种基于语音识别字符索引的查找方法及系统
JP4622861B2 (ja) 音声入力システム、音声入力方法、および、音声入力用プログラム
WO2018054127A1 (zh) 一种手写输入方法及装置
KR102219728B1 (ko) 키패드를 이용한 키워드 검색 방법 및 장치
CN116226330A (zh) 特殊字符识别方法、装置、电子设备与计算机存储介质
CN116360606A (zh) 一种生僻字输入方法、装置、存储介质、产品及电子设备
JP2012014517A (ja) 手書き文字認識方法およびシステム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151217

R150 Certificate of patent or registration of utility model

Ref document number: 5860171

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees