JP6686154B2 - 発話認識方法及び装置 - Google Patents
発話認識方法及び装置 Download PDFInfo
- Publication number
- JP6686154B2 JP6686154B2 JP2018541475A JP2018541475A JP6686154B2 JP 6686154 B2 JP6686154 B2 JP 6686154B2 JP 2018541475 A JP2018541475 A JP 2018541475A JP 2018541475 A JP2018541475 A JP 2018541475A JP 6686154 B2 JP6686154 B2 JP 6686154B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- preset
- sequence
- client information
- wfst
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/193—Formal grammars, e.g. finite state automata, context free grammars or word networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/022—Demisyllables, biphones or triphones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0631—Creating reference templates; Clustering
- G10L2015/0633—Creating reference templates; Clustering using lexical or orthographic knowledge sources
Description
Claims (31)
- 発話認識方法であって、
予め設定された発話知識ソースに基づいて、予め設定されたクライアント情報を有する、且つ、発話信号をデコーディングするための、サーチ空間を生成するステップであって、前記サーチ空間は、重み付き有限状態トランスデューサ(WFST)を有し、前記サーチ空間の基本ユニットは、文脈に依存するトライフォンを有し、且つ、前記予め設定された発話知識ソースは、辞書、言語モデル、及びトライフォン状態バンドリングリストを有し、前記サーチ空間を生成する前記ステップは、
前記トライフォン状態バンドリングリスト、前記辞書、及び前記言語モデルに基づいている単一のWFSTを取得するべく、ラベル置換により、予め設定された主題クラスに対応する予め設定されたクライアント情報を少なくとも前記言語モデルに基づいている予め生成されたWFSTに追加するステップであって、前記言語モデルは、言語モデルをトレーニングするためのテキスト内の予め設定された名前エンティティを予め設定された主題クラスに対応するラベルによって置換し、且つ、前記言語モデルをトレーニングするべく前記テキストを使用する、という方式によって事前トレーニングを通じて取得される、ステップ、を有する、ステップと、
認識対象の発話信号の特性ベクトルシーケンスを抽出するステップと、
前記特性ベクトルが前記サーチ空間のそれぞれの基本ユニットに対応している確率を算出するステップと、
前記特性ベクトルシーケンスに対応するワードシーケンスを取得するべく、前記確率を入力として使用することにより、前記サーチ空間内においてデコーディング動作を実行するステップと、
を有する方法。 - 前記トライフォン状態バンドリングリスト、前記辞書、及び前記言語モデルに基づいている単一のWFSTを取得するべく、ラベル置換により、予め設定された主題クラスに対応する予め設定されたクライアント情報を少なくとも前記言語モデルに基づいている予め生成されたWFSTに追加する前記ステップは、
前記ラベル置換により、前記予め設定された主題クラスに対応する前記予め設定されたクライアント情報を前記言語モデルに基づいている予め生成されたWFSTに追加するステップと、
前記単一のWFSTを取得するべく、前記予め設定されたクライアント情報が追加された前記WFSTを前記トライフォン状態バンドリングリスト及び前記辞書に基づいている予め生成されたWFSTと組み合わせるステップと、
を有する、請求項1に記載の発話認識方法。 - 前記言語モデルをトレーニングするための前記テキストは、前記予め設定された主題クラスのテキストを意味している、請求項1に記載の発話認識方法。
- 前記予め設定された主題クラスの数は、少なくとも二つであり、前記言語モデルの数及び少なくとも前記言語モデルに基づいている前記WFSTの数は、それぞれ、前記予め設定された主題クラスの前記数と同一であり、
ラベル置換により、予め設定された主題クラスに対応する予め設定されたクライアント情報を少なくとも前記言語モデルに基づいている予め生成されたWFSTに追加する前記ステップは、
前記認識対象の発話信号が属する予め設定された主題クラスを判定するステップと、
前記予め設定された主題クラスに対応する、且つ、少なくとも前記言語モデルに基づいている、前記予め生成されたWFSTを選択するステップと、
対応するラベルを前記予め設定された主題クラスに対応する予め設定されたクライアント情報によって置換することにより、前記予め設定されたクライアント情報を前記選択されたWFSTに追加するステップと、
を有する、請求項1に記載の発話認識方法。 - 前記認識対象の発話信号が属する予め設定された主題クラスを判定する前記ステップは、
前記発話信号を収集するクライアント又はアプリケーションのタイプに従って、前記認識対象の発話信号が属する前記予め設定された主題クラスを判定する、
という方式により、実現されている、請求項4に記載の発話認識方法。 - 前記予め設定された主題クラスは、電話をかけること、テキストメッセージを送信すること、歌を演奏すること、又は命令を設定することを有し、且つ、
前記対応する予め設定されたクライアント情報は、連絡先名簿内の連絡先の名前、歌ライブラリ内の歌の名前、又は命令セット内の命令を有する、
請求項5に記載の発話認識方法。 - 前記組合せ動作は、予測に基づいた方法を使用することにより、組み合わせるステップを有する、請求項2に記載の発話認識方法。
- 前記言語モデルを事前トレーニングするべく使用されるワードリストは、前記辞書内に含まれているワードと一貫性を有する、請求項1に記載の発話認識方法。
- 前記特性ベクトルが前記サーチ空間のそれぞれの基本ユニットに対応している確率を算出する前記ステップは、
前記特性ベクトルがそれぞれのトライフォン状態に対応している確率を算出するべく、予めトレーニングされたDNN(Deep Neural Network)モデルを使用するステップと、
前記特性ベクトルがそれぞれのトライフォン状態に対応している前記確率に従って前記特性ベクトルがそれぞれのトライフォンに対応している確率を算出するべく、予めトレーニングされたHMM(Hidden Markov Model)モデルを使用するステップと、
を有する、請求項1に記載の発話認識方法。 - 実行速度は、前記特性ベクトルが前記それぞれのトライフォン状態に対応している前記確率を算出するべく予めトレーニングされたDNNを使用するステップのために、ハードウェアプラットフォームによって提供されるデータ並列処理能力を使用する、という方式により、改善されている、請求項9に記載の発話認識方法。
- 認識対象の発話信号の特性ベクトルシーケンスを抽出する前記ステップは、
複数のオーディオフレームを取得するべく、予め設定されたフレーム長に従って認識対象の発話信号に対してフレーム分割処理を実行するステップと、
前記特性ベクトルシーケンスを取得するべく、それぞれのオーディオフレームの特性ベクトルを抽出するステップと、
を有する、請求項1〜10のいずれか一項に記載の発話認識方法。 - それぞれのオーディオフレームの特性ベクトルを抽出する前記ステップは、MFCC(Mel Frequency Cepstrum Coefficient)特性、PLP(Perceptual Linear Predictive)特性、又はLPC(Linear Predictive Coding)特性を抽出するステップを有する、請求項11に記載の発話認識方法。
- 前記特性ベクトルシーケンスに対応するワードシーケンスを取得した後に、
前記予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの精度を検証し、且つ、前記検証の結果に従って対応する発話認識結果を生成する、
という動作が実行されている、請求項1〜10のいずれか一項に記載の発話認識方法。 - 前記予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの前記精度を検証し、且つ、前記検証の結果に従って対応する発話認識結果を取得するステップは、
前記ワードシーケンスから、前記予め設定されたクライアント情報に対応する検証対象のワードを選択するステップと、
前記予め設定されたクライアント情報内において前記検証対象のワードをサーチするステップと、
前記検証対象のワードが見出された場合に、前記精度検証に合格していると判定し、且つ、前記ワードシーケンスを前記発話認識結果として使用し、且つ、さもなければ、ピンインに基づいたファジーマッチングにより、前記ワードシーケンスを訂正し、且つ、前記訂正済みのワードシーケンスを前記発話認識結果として使用するステップと、
を有する、請求項13に記載の発話認識方法。 - ピンインに基づいたファジーマッチングによって前記ワードシーケンスを訂正する前記ステップは、
前記検証対象のワードを検証対象のピンインシーケンスに変換するステップと、
それぞれ、前記予め設定されたクライアント情報内のそれぞれのワードを比較ピンインシーケンスに変換するステップと、
前記検証対象のピンインシーケンスとそれぞれの比較ピンインシーケンスとの間の類似性の程度を順番に算出し、且つ、前記類似性の程度の下降順においてソートされた後に、前記予め設定されたクライアント情報から高位にランク付けされたワードを選択するステップと、
前記ワードシーケンス内において前記検証対象のワードを置換して前記訂正済みのワードシーケンスを取得するべく、前記選択されたワードを使用するステップと、
を有する、請求項14に記載の発話認識方法。 - 前記類似性の程度は、編集距離に従って算出された類似性の程度を有する、請求項15に記載の発話認識方法。
- 前記方法は、クライアント装置上において実装され、前記クライアント装置は、スマートモバイル端末、スマートスピーカ、又はロボットを有する、請求項1〜10のいずれか一項に記載の発話認識方法。
- 発話認識装置であって、
予め設定された発話知識ソースに基づいて、予め設定されたクライアント情報を有する、且つ、発話信号をデコーディングするための、サーチ空間を生成するように構成されたサーチ空間生成ユニットと、
認識対象の発話信号の特性ベクトルシーケンスを抽出するように構成された特性ベクトル抽出ユニットと、
前記特性ベクトルが前記サーチ空間のそれぞれの基本ユニットに対応している確率を算出するように構成された確率算出ユニットと、
前記特性ベクトルシーケンスに対応するワードシーケンスを取得するべく、前記確率を入力として使用することにより、前記サーチ空間内においてデコーディング動作を実行するように構成されたデコーディングサーチユニットと、
ここで、前記サーチ空間生成ユニットは、ラベル置換により、トライフォン状態バンドリングリスト、辞書、及び言語モデルに基づいている単一のWFSTを取得するべく、予め設定された主題クラスに対応する予め設定されたクライアント情報を少なくとも前記言語モデルに基づいている予め生成されたWFSTに追加するように構成されており、
言語モデルトレーニングユニットであって、前記言語モデルは、前記言語モデルトレーニングユニットによって予め生成され、且つ、前記言語モデルトレーニングユニットは、言語モデルをトレーニングするためのテキスト内の予め設定された名前エンティティを予め設定された主題クラスに対応するラベルによって置換するように、且つ、前記言語モデルをトレーニングするべく前記テキストを使用するように、構成されている、言語モデルトレーニングユニットと、
を有する装置。 - 前記サーチ空間生成ユニットは、
ラベル置換により、前記予め設定された主題クラスに対応する前記予め設定されたクライアント情報を前記言語モデルに基づいている予め生成されたWFSTに追加するように構成された第一クライアント情報追加サブユニットと、
前記単一のWFSTを取得するべく、前記予め設定されたクライアント情報が追加された前記WFSTを前記トライフォン状態バンドリングリスト及び前記辞書に基づいている予め生成されたWFSTと組み合わせるように構成されたWFST組合せサブユニットと、
を有する、請求項18に記載の発話認識装置。 - 前記サーチ空間生成ユニットは、
ラベル置換により、予め設定された主題クラスに対応する予め設定されたクライアント情報を少なくとも前記言語モデルに基づいている予め生成されたWFSTに追加するように構成された第二クライアント情報追加サブユニットと、
前記第二クライアント情報追加サブユニットが前記追加動作を完了した後に、前記トライフォン状態バンドリングリスト、前記辞書、及び前記言語モデルに基づいている単一のWFSTを取得するように構成された統合型のWFST取得サブユニットと、
を有し、且つ、
前記第二クライアント情報追加サブユニットは、
前記認識対象の発話信号が属する予め設定された主題クラスを判定するように構成された主題判定サブユニットと、
前記予め設定された主題クラスに対応する、且つ、少なくとも前記言語モデルに基づいている、前記予め生成されたWFSTを選択するように構成されたWFST選択サブユニットと、
対応するラベルを前記予め設定された主題クラスに対応する予め設定されたクライアント情報によって置換することにより、前記予め設定されたクライアント情報を前記選択されたWFSTに追加するように構成されたラベル置換サブユニットと、
を有する、請求項18に記載の発話認識装置。 - 前記主題判定サブユニットは、前記発話信号を収集する前記クライアント又はアプリケーションプログラムのタイプに従って、前記認識対象の発話信号が属する前記予め設定された主題クラスを判定するように構成されている、請求項20に記載の発話認識装置。
- 前記WFST組合せサブユニットは、予測に基づいた方法を使用することにより、前記組合せ動作を実行するように、且つ、前記単一のWFSTを取得するように、構成されている、請求項19に記載の発話認識装置。
- 前記確率算出ユニットは、
前記特性ベクトルがそれぞれのトライフォン状態に対応している確率を算出するべく、予めトレーニングされたDNN(Deep Neural Network)モデルを使用するように構成されたトライフォン状態確率算出サブユニットと、
前記特性ベクトルがそれぞれのトライフォン状態に対応している前記確率に従って前記特性ベクトルがそれぞれのトライフォンに対応している確率を算出するべく、予めトレーニングされたHMM(Hidden Markov Model)モデルを使用するように構成されたトライフォン確率算出サブユニットと、
を有する、請求項18に記載の発話認識装置。 - 前記特性ベクトル抽出ユニットは、
複数のオーディオフレームを取得するべく、予め設定されたフレーム長に従ってフレーム分割処理を前記認識対象の発話信号に対して実行するように構成されたフレーム分割サブユニットと、
前記特性ベクトルシーケンスを取得するべく前記それぞれのオーディオフレームの特性ベクトルを抽出するように構成された特性抽出サブユニットと、
を有する、請求項18〜23のいずれか一項に記載の発話認識装置。 - 前記デコーディングサーチユニットが前記特性ベクトルシーケンスに対応するワードシーケンスを取得した後に、前記予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの精度を検証するように、且つ、前記検証の結果に従って対応する発話認識結果を生成するように、構成された精度検証ユニット、
を有する、請求項18〜23のいずれか一項に記載の発話認識装置。 - 前記精度検証ユニットは、
前記ワードシーケンスから前記予め設定されたクライアント情報に対応する検証対象のワードを選択するように構成された検証対象ワード選択サブユニットと、
前記予め設定されたクライアント情報内において前記検証対象のワードについてサーチするように構成されたサーチサブユニットと、
前記サーチサブユニットが前記検証対象のワードを見出した際に、前記精度検証に合格したと判定するように、且つ、前記ワードシーケンスを前記発話認識結果として使用するように、構成された認識結果判定サブユニットと、
前記サーチサブユニットが前記検証対象のワードを見出さない際に、ピンインに基づいたファジーマッチングにより、前記ワードシーケンスを訂正するように、且つ、前記訂正済みのワードシーケンスを前記発話認識結果として使用するように、構成された認識結果訂正サブユニットと、
を有する、請求項25に記載の発話認識装置。 - 前記認識結果訂正サブユニットは、
前記検証対象のワードを検証対象のピンインシーケンスに変換するように構成された検証対象ピンインシーケンス変換サブユニットと、
それぞれ、前記予め設定されたクライアント情報内のそれぞれのワードを比較ピンインシーケンスに変換するように構成された比較ピンインシーケンス変換サブユニットと、
前記検証対象のピンインシーケンスとそれぞれの比較ピンインシーケンスとの間の類似性の程度を順番に算出するように、且つ、前記類似性の前記程度の下降順においてソートされた後に、前記予め設定されたクライアント情報から高位にランク付けされたワードを選択するように、構成された類似性の程度算出サブユニットと、
前記ワードシーケンス内において前記検証対象のワードを置換して前記訂正済みのワードシーケンスを取得するべく、前記選択されたワードを使用するように構成された検証対象ワード置換サブユニットと、
を有する、請求項26に記載の発話認識装置。 - 発話認識方法であって、
デコーディングを通じて、認識対象の発話信号に対応するワードシーケンスを取得するステップと、
予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの精度を検証し、且つ、前記検証の結果に従って対応する発話認識結果を生成するステップであって、前記予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの前記精度を検証し、且つ、前記検証の結果に従って対応する発話認識結果を生成するステップは、
前記予め設定されたクライアント情報に対応する検証対象のワードを前記ワードシーケンスから選択するステップと、
前記予め設定されたクライアント情報内において前記検証対象のワードについてサーチするステップと、
前記検証対象のワードが見出された場合に、前記精度検証に合格したと判定し、且つ、前記ワードシーケンスを前記発話認識結果として使用し、且つ、さもなければ、ピンインに基づいたファジーマッチングにより、前記ワードシーケンスを訂正し、且つ、前記訂正済みのワードシーケンスを前記発話認識結果として使用するステップと、
を有する、ステップ、と、
を有する方法。 - ピンインに基づいたファジーマッチングにより、前記ワードシーケンスを訂正する前記ステップは、
前記検証対象のワードを検証対象のピンインシーケンスに変換するステップと、
それぞれ、前記予め設定されたクライアント情報内のそれぞれのワードを比較ピンインシーケンスに変換するステップと、
前記検証対象のピンインシーケンスとそれぞれの比較ピンインシーケンスとの間の類似性の程度を順番に算出し、且つ、前記類似性の程度の下降順においてソートされた後に、前記予め設定されたクライアント情報から高位にランク付けされたワードを選択するステップと、
前記ワードシーケンス内において前記検証対象のワードを置換して前記訂正済みのワードシーケンスを取得するべく、前記選択されたワードを使用するステップと、
を有する、請求項28に記載の発話認識方法。 - 発話認識装置であって、
デコーディングを通じて、認識対象の発話信号に対応するワードシーケンスを取得するように構成されたワードシーケンス取得ユニットと、
予め設定されたクライアント情報との間においてテキストマッチングを実行することにより、前記ワードシーケンスの精度を検証するように、且つ、前記検証の結果に従って対応する発話認識結果を生成するように、構成されたワードシーケンス検証ユニットであって、前記ワードシーケンス検証ユニットは、
前記予め設定されたクライアント情報に対応する検証対象のワードを前記ワードシーケンスから選択するように構成された検証対象ワード選択サブユニットと、
前記予め設定されたクライアント情報内において前記検証対象のワードについてサーチするように構成されたサーチサブユニットと、
前記サーチサブユニットが前記検証対象のワードを見出した際に、前記精度検証に合格したと判定するように、且つ、前記ワードシーケンスを前記発話認識結果として使用するように、構成された認識結果判定サブユニットと、
前記サーチサブユニットが前記検証対象のワードを見出さない際に、ピンインに基づいたファジーマッチングにより、前記ワードシーケンスを訂正するように、且つ、前記訂正済みのワードシーケンスを前記発話認識結果として使用するように、構成された認識結果訂正サブユニットと、
を有する、ワードシーケンス検証ユニットと、
を有する装置。 - 前記認識結果訂正サブユニットは、
前記検証対象のワードを検証対象のピンインシーケンスに変換するように構成された検証対象のピンインシーケンス変換サブユニットと、
それぞれ、前記予め設定されたクライアント情報内のそれぞれのワードを比較ピンインシーケンスに変換するように構成された比較ピンインシーケンス変換サブユニットと、
前記検証対象のピンインシーケンスとそれぞれの比較ピンインシーケンスとの間の類似性の程度を順番に算出するように、且つ、前記類似性の程度の下降順においてソートされた後に、前記予め設定されたクライアント情報から高位にランク付けされたワードを選択するように、構成された類似性の程度算出サブユニットと、
前記ワードシーケンス内において前記検証対象のワードを置換して前記訂正済みのワードシーケンスを取得するべく、前記選択されたワードを使用するように構成された検証対象ワード置換サブユニットと、
を有する、請求項30に記載の発話認識装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510752397.4A CN106683677B (zh) | 2015-11-06 | 2015-11-06 | 语音识别方法及装置 |
CN201510752397.4 | 2015-11-06 | ||
PCT/CN2016/103691 WO2017076222A1 (zh) | 2015-11-06 | 2016-10-28 | 语音识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018536905A JP2018536905A (ja) | 2018-12-13 |
JP6686154B2 true JP6686154B2 (ja) | 2020-04-22 |
Family
ID=58661629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018541475A Active JP6686154B2 (ja) | 2015-11-06 | 2016-10-28 | 発話認識方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10741170B2 (ja) |
EP (1) | EP3373293B1 (ja) |
JP (1) | JP6686154B2 (ja) |
CN (1) | CN106683677B (ja) |
WO (1) | WO2017076222A1 (ja) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106683677B (zh) * | 2015-11-06 | 2021-11-12 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN105933323B (zh) * | 2016-06-01 | 2019-05-31 | 百度在线网络技术(北京)有限公司 | 声纹注册、认证方法及装置 |
CN107103903B (zh) * | 2017-05-05 | 2020-05-29 | 百度在线网络技术(北京)有限公司 | 基于人工智能的声学模型训练方法、装置及存储介质 |
CN107247750A (zh) * | 2017-05-26 | 2017-10-13 | 深圳千尘计算机技术有限公司 | 人工智能交互方法及系统 |
CN107240395B (zh) * | 2017-06-16 | 2020-04-28 | 百度在线网络技术(北京)有限公司 | 一种声学模型训练方法和装置、计算机设备、存储介质 |
CN107437417B (zh) * | 2017-08-02 | 2020-02-14 | 中国科学院自动化研究所 | 基于循环神经网络语音识别中语音数据增强方法及装置 |
CN107707745A (zh) * | 2017-09-25 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 用于提取信息的方法和装置 |
CN107871499B (zh) * | 2017-10-27 | 2020-06-16 | 珠海市杰理科技股份有限公司 | 语音识别方法、系统、计算机设备及计算机可读存储介质 |
CN107911386B (zh) * | 2017-12-06 | 2020-12-04 | 北京小米移动软件有限公司 | 获取服务授权信息的方法及装置 |
CN108091327A (zh) * | 2018-02-22 | 2018-05-29 | 成都启英泰伦科技有限公司 | 一种智能语音设备控制方法 |
CN110188338B (zh) * | 2018-02-23 | 2023-02-21 | 富士通株式会社 | 文本相关的说话人确认方法和设备 |
CN108549637A (zh) * | 2018-04-19 | 2018-09-18 | 京东方科技集团股份有限公司 | 基于拼音的语义识别方法、装置以及人机对话系统 |
CN109036391B (zh) * | 2018-06-26 | 2021-02-05 | 华为技术有限公司 | 语音识别方法、装置及系统 |
CN110797008B (zh) * | 2018-07-16 | 2024-03-29 | 阿里巴巴集团控股有限公司 | 一种远场语音识别方法、语音识别模型训练方法和服务器 |
CN109064789A (zh) * | 2018-08-17 | 2018-12-21 | 重庆第二师范学院 | 一种伴随脑瘫性口齿不清辅助控制系统及方法、辅助器 |
CN109274845A (zh) * | 2018-08-31 | 2019-01-25 | 平安科技(深圳)有限公司 | 智能语音自动回访方法、装置、计算机设备及存储介质 |
CN109376288B (zh) * | 2018-09-28 | 2021-04-23 | 邦道科技有限公司 | 一种实现语义搜索的云计算平台及其均衡方法 |
CN110970032A (zh) * | 2018-09-28 | 2020-04-07 | 深圳市冠旭电子股份有限公司 | 一种音箱语音交互控制的方法及装置 |
CN110176230B (zh) * | 2018-12-11 | 2021-10-08 | 腾讯科技(深圳)有限公司 | 一种语音识别方法、装置、设备和存储介质 |
CN111402887A (zh) * | 2018-12-17 | 2020-07-10 | 北京未来媒体科技股份有限公司 | 一种语音转义文字的方法及装置 |
CN109461438B (zh) * | 2018-12-19 | 2022-06-14 | 合肥讯飞数码科技有限公司 | 一种语音识别方法、装置、设备及存储介质 |
CN109920309B (zh) * | 2019-01-16 | 2023-02-03 | 深圳壹账通智能科技有限公司 | 手语转换方法、装置、存储介质和终端 |
CN111508497B (zh) * | 2019-01-30 | 2023-09-26 | 北京猎户星空科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
CN111862985A (zh) * | 2019-05-17 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别装置、方法、电子设备及存储介质 |
CN112151020A (zh) * | 2019-06-28 | 2020-12-29 | 北京声智科技有限公司 | 语音识别方法、装置、电子设备及存储介质 |
US11074909B2 (en) | 2019-06-28 | 2021-07-27 | Samsung Electronics Co., Ltd. | Device for recognizing speech input from user and operating method thereof |
CN112259089A (zh) * | 2019-07-04 | 2021-01-22 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
CN110457684A (zh) * | 2019-07-15 | 2019-11-15 | 广州九四智能科技有限公司 | 智能电话客服的语义分析方法 |
CN110688833B (zh) * | 2019-09-16 | 2022-12-02 | 苏州创意云网络科技有限公司 | 文本校正方法、装置和设备 |
CN110717327B (zh) * | 2019-09-29 | 2023-12-29 | 北京百度网讯科技有限公司 | 标题生成方法、装置、电子设备和存储介质 |
CN110738988A (zh) * | 2019-10-24 | 2020-01-31 | 上海海事大学 | 一种基于维特比算法的花洒语音识别系统及方法 |
CN111028834B (zh) * | 2019-10-30 | 2023-01-20 | 蚂蚁财富(上海)金融信息服务有限公司 | 语音信息提醒方法、装置、服务器和语音信息提醒设备 |
CN110827815B (zh) * | 2019-11-07 | 2022-07-15 | 深圳传音控股股份有限公司 | 一种语音识别方法、终端、系统以及计算机存储介质 |
CN110992931B (zh) * | 2019-12-18 | 2022-07-26 | 广东睿住智能科技有限公司 | 一种基于d2d技术的离线式语音控制方法、系统及存储介质 |
CN110942775B (zh) * | 2019-12-20 | 2022-07-01 | 北京欧珀通信有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN111161707B (zh) * | 2020-02-12 | 2020-12-22 | 龙马智芯(珠海横琴)科技有限公司 | 一种自动补充质检关键词表的方法、电子设备和存储介质 |
CN111415655B (zh) * | 2020-02-12 | 2024-04-12 | 北京声智科技有限公司 | 语言模型构建方法、装置及存储介质 |
CN111862967A (zh) * | 2020-04-07 | 2020-10-30 | 北京嘀嘀无限科技发展有限公司 | 一种语音识别方法、装置、电子设备及存储介质 |
CN111613219B (zh) * | 2020-05-15 | 2023-10-27 | 深圳前海微众银行股份有限公司 | 语音数据识别方法、设备及介质 |
CN111539653A (zh) * | 2020-05-27 | 2020-08-14 | 山西东易园智能家居科技有限公司 | 一种智能填充施工进度管理方法 |
CN111883109B (zh) * | 2020-07-01 | 2023-09-26 | 北京猎户星空科技有限公司 | 语音信息处理及验证模型训练方法、装置、设备及介质 |
CN111508501B (zh) * | 2020-07-02 | 2020-09-29 | 成都晓多科技有限公司 | 一种电话机器人中带口音的语音识别方法及系统 |
CN111862958B (zh) * | 2020-08-07 | 2024-04-02 | 广州视琨电子科技有限公司 | 发音插入错误检测方法、装置、电子设备及存储介质 |
CN114697717A (zh) * | 2020-12-28 | 2022-07-01 | 深圳Tcl新技术有限公司 | 一种文本输入方法和终端设备 |
CN112820281B (zh) * | 2020-12-31 | 2022-09-23 | 北京声智科技有限公司 | 一种语音识别方法、装置及设备 |
CN112445934B (zh) * | 2021-02-01 | 2021-04-20 | 北京远鉴信息技术有限公司 | 语音检索方法、装置、设备及存储介质 |
KR20220135039A (ko) * | 2021-03-29 | 2022-10-06 | 삼성전자주식회사 | 전자 장치 및 이를 이용한 음성 인식 수행 방법 |
CN113051923B (zh) * | 2021-04-22 | 2023-03-21 | 平安普惠企业管理有限公司 | 数据验证方法、装置、计算机设备和存储介质 |
CN113326279A (zh) | 2021-05-27 | 2021-08-31 | 阿波罗智联(北京)科技有限公司 | 语音搜索方法和装置、电子设备、计算机可读介质 |
CN113421587B (zh) * | 2021-06-02 | 2023-10-13 | 网易有道信息技术(北京)有限公司 | 语音评测的方法、装置、计算设备及存储介质 |
CN113932518B (zh) * | 2021-06-02 | 2023-08-18 | 海信冰箱有限公司 | 冰箱及其食材管理方法 |
CN113362812B (zh) * | 2021-06-30 | 2024-02-13 | 北京搜狗科技发展有限公司 | 一种语音识别方法、装置和电子设备 |
CN113506561B (zh) * | 2021-07-28 | 2023-07-11 | 北京读我网络技术有限公司 | 文本拼音的转换方法及装置、存储介质及电子设备 |
TWI779982B (zh) * | 2022-01-04 | 2022-10-01 | 中華電信股份有限公司 | 改善語音辨識模型的方法和電子裝置 |
CN114783419B (zh) * | 2022-06-21 | 2022-09-27 | 深圳市友杰智新科技有限公司 | 结合先验知识的文本识别方法、装置、计算机设备 |
Family Cites Families (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6278973B1 (en) * | 1995-12-12 | 2001-08-21 | Lucent Technologies, Inc. | On-demand language processing system and method |
US6076056A (en) | 1997-09-19 | 2000-06-13 | Microsoft Corporation | Speech recognition system for recognizing continuous and isolated speech |
US7043422B2 (en) | 2000-10-13 | 2006-05-09 | Microsoft Corporation | Method and apparatus for distribution-based language model adaptation |
US20020138274A1 (en) * | 2001-03-26 | 2002-09-26 | Sharma Sangita R. | Server based adaption of acoustic models for client-based speech systems |
JP3961780B2 (ja) * | 2001-05-15 | 2007-08-22 | 三菱電機株式会社 | 言語モデル学習装置およびそれを用いた音声認識装置 |
US6839667B2 (en) | 2001-05-16 | 2005-01-04 | International Business Machines Corporation | Method of speech recognition by presenting N-best word candidates |
US8290774B1 (en) * | 2001-07-20 | 2012-10-16 | At&T Intellectual Property Ii, L.P. | System and method of epsilon removal of weighted automata and transducers |
US7072880B2 (en) * | 2002-08-13 | 2006-07-04 | Xerox Corporation | Information retrieval and encoding via substring-number mapping |
US7062436B1 (en) | 2003-02-11 | 2006-06-13 | Microsoft Corporation | Word-specific acoustic models in a speech recognition system |
US7292976B1 (en) | 2003-05-29 | 2007-11-06 | At&T Corp. | Active learning process for spoken dialog systems |
US7720683B1 (en) | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
US7464031B2 (en) | 2003-11-28 | 2008-12-09 | International Business Machines Corporation | Speech recognition utilizing multitude of speech features |
US8019602B2 (en) | 2004-01-20 | 2011-09-13 | Microsoft Corporation | Automatic speech recognition learning using user corrections |
JP2005283972A (ja) * | 2004-03-30 | 2005-10-13 | Advanced Media Inc | 音声認識方法及びこの音声認識方法を利用した情報提示方法と情報提示装置 |
US7869999B2 (en) | 2004-08-11 | 2011-01-11 | Nuance Communications, Inc. | Systems and methods for selecting from multiple phonectic transcriptions for text-to-speech synthesis |
US8706475B2 (en) * | 2005-01-10 | 2014-04-22 | Xerox Corporation | Method and apparatus for detecting a table of contents and reference determination |
US8818808B2 (en) | 2005-02-23 | 2014-08-26 | At&T Intellectual Property Ii, L.P. | Unsupervised and active learning in automatic speech recognition for call classification |
US7693713B2 (en) | 2005-06-17 | 2010-04-06 | Microsoft Corporation | Speech models generated using competitive training, asymmetric training, and data boosting |
CN1979638A (zh) * | 2005-12-02 | 2007-06-13 | 中国科学院自动化研究所 | 一种语音识别结果纠错方法 |
US8195462B2 (en) * | 2006-02-16 | 2012-06-05 | At&T Intellectual Property Ii, L.P. | System and method for providing large vocabulary speech processing based on fixed-point arithmetic |
CN101034390A (zh) | 2006-03-10 | 2007-09-12 | 日电(中国)有限公司 | 用于语言模型切换和自适应的装置和方法 |
US20070239455A1 (en) | 2006-04-07 | 2007-10-11 | Motorola, Inc. | Method and system for managing pronunciation dictionaries in a speech application |
US20080154600A1 (en) | 2006-12-21 | 2008-06-26 | Nokia Corporation | System, Method, Apparatus and Computer Program Product for Providing Dynamic Vocabulary Prediction for Speech Recognition |
CN101017428A (zh) * | 2006-12-22 | 2007-08-15 | 广东电子工业研究院有限公司 | 一种嵌入式语音交互装置及交互方法 |
CN101320561A (zh) * | 2007-06-05 | 2008-12-10 | 赛微科技股份有限公司 | 提升个人语音识别率的方法及模块 |
US8275615B2 (en) | 2007-07-13 | 2012-09-25 | International Business Machines Corporation | Model weighting, selection and hypotheses combination for automatic speech recognition and machine translation |
GB2453366B (en) | 2007-10-04 | 2011-04-06 | Toshiba Res Europ Ltd | Automatic speech recognition method and apparatus |
US20090125307A1 (en) * | 2007-11-09 | 2009-05-14 | Jui-Chang Wang | System and a method for providing each user at multiple devices with speaker-dependent speech recognition engines via networks |
CN101499277B (zh) * | 2008-07-25 | 2011-05-04 | 中国科学院计算技术研究所 | 一种服务智能导航方法和系统 |
US8131545B1 (en) * | 2008-09-25 | 2012-03-06 | Google Inc. | Aligning a transcript to audio data |
CN101464896B (zh) * | 2009-01-23 | 2010-08-11 | 安徽科大讯飞信息科技股份有限公司 | 语音模糊检索方法及装置 |
CN101510222B (zh) * | 2009-02-20 | 2012-05-30 | 北京大学 | 一种多层索引语音文档检索方法 |
US9135249B2 (en) * | 2009-05-29 | 2015-09-15 | Xerox Corporation | Number sequences detection systems and methods |
US8332754B2 (en) * | 2009-11-04 | 2012-12-11 | International Business Machines Corporation | Rendering sections of content in a document |
US8719023B2 (en) | 2010-05-21 | 2014-05-06 | Sony Computer Entertainment Inc. | Robustness to environmental changes of a context dependent speech recognizer |
US8914288B2 (en) | 2011-09-01 | 2014-12-16 | At&T Intellectual Property I, L.P. | System and method for advanced turn-taking for interactive spoken dialog systems |
US9640175B2 (en) | 2011-10-07 | 2017-05-02 | Microsoft Technology Licensing, Llc | Pronunciation learning from user correction |
CN102402983A (zh) * | 2011-11-25 | 2012-04-04 | 浪潮电子信息产业股份有限公司 | 一种云数据中心语音识别方法 |
CN103188408A (zh) * | 2011-12-29 | 2013-07-03 | 上海博泰悦臻电子设备制造有限公司 | 语音自动应答云端服务器、系统及方法 |
CN102629246B (zh) * | 2012-02-10 | 2017-06-27 | 百纳(武汉)信息技术有限公司 | 识别浏览器语音命令的服务器及浏览器语音命令识别方法 |
JP5881157B2 (ja) * | 2012-02-22 | 2016-03-09 | 国立研究開発法人情報通信研究機構 | 情報処理装置、およびプログラム |
CN102722525A (zh) * | 2012-05-15 | 2012-10-10 | 北京百度网讯科技有限公司 | 通讯录人名的语言模型建立方法、语音搜索方法及其系统 |
KR101394253B1 (ko) * | 2012-05-16 | 2014-05-13 | 광주과학기술원 | 음성 인식 오류 보정 장치 |
US8805684B1 (en) * | 2012-05-31 | 2014-08-12 | Google Inc. | Distributed speaker adaptation |
US8442821B1 (en) | 2012-07-27 | 2013-05-14 | Google Inc. | Multi-frame prediction for hybrid neural network/hidden Markov models |
US8972243B1 (en) * | 2012-11-20 | 2015-03-03 | Amazon Technologies, Inc. | Parse information encoding in a finite state transducer |
CN103903619B (zh) * | 2012-12-28 | 2016-12-28 | 科大讯飞股份有限公司 | 一种提高语音识别准确率的方法及系统 |
CN103065630B (zh) * | 2012-12-28 | 2015-01-07 | 科大讯飞股份有限公司 | 用户个性化信息语音识别方法及系统 |
CN105027197B (zh) * | 2013-03-15 | 2018-12-14 | 苹果公司 | 训练至少部分语音命令系统 |
CN103281425A (zh) * | 2013-04-25 | 2013-09-04 | 广东欧珀移动通信有限公司 | 一种通过通话声音分析联系人的方法及装置 |
US9396724B2 (en) * | 2013-05-29 | 2016-07-19 | Tencent Technology (Shenzhen) Company Limited | Method and apparatus for building a language model |
CN104238991B (zh) * | 2013-06-21 | 2018-05-25 | 腾讯科技(深圳)有限公司 | 语音输入匹配方法及装置 |
CN103325370B (zh) * | 2013-07-01 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 语音识别方法和语音识别系统 |
JP5701348B2 (ja) * | 2013-08-23 | 2015-04-15 | ヤフー株式会社 | 音声認識装置、音声認識方法、およびプログラム |
KR102274317B1 (ko) * | 2013-10-08 | 2021-07-07 | 삼성전자주식회사 | 디바이스 정보에 기초하여 음성 인식을 수행하는 방법 및 장치 |
US20150121204A1 (en) * | 2013-10-28 | 2015-04-30 | Kobo Incorporated | Method and system for a visual indicator a displayed page enablement for guided reading |
JP5875569B2 (ja) * | 2013-10-31 | 2016-03-02 | 日本電信電話株式会社 | 音声認識装置とその方法とプログラムとその記録媒体 |
JP6193726B2 (ja) * | 2013-10-31 | 2017-09-06 | 日本電信電話株式会社 | 音声認識用wfst作成装置と音声認識装置とそれらの方法とプログラムと記録媒体 |
JP5777178B2 (ja) * | 2013-11-27 | 2015-09-09 | 国立研究開発法人情報通信研究機構 | 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム |
CN103794214A (zh) * | 2014-03-07 | 2014-05-14 | 联想(北京)有限公司 | 一种信息处理方法、装置和电子设备 |
CN104008132B (zh) * | 2014-05-04 | 2018-09-25 | 深圳市北科瑞声科技股份有限公司 | 语音地图搜索方法及系统 |
CN104064182A (zh) * | 2014-06-24 | 2014-09-24 | 中国人民财产保险股份有限公司 | 一种基于分类规则的语音识别系统及方法 |
CN104538031B (zh) * | 2014-12-15 | 2017-09-01 | 北京云知声信息技术有限公司 | 智能语音服务开发云平台及方法 |
US9672265B2 (en) * | 2015-02-06 | 2017-06-06 | Atlassian Pty Ltd | Systems and methods for generating an edit script |
CN106683677B (zh) * | 2015-11-06 | 2021-11-12 | 阿里巴巴集团控股有限公司 | 语音识别方法及装置 |
-
2015
- 2015-11-06 CN CN201510752397.4A patent/CN106683677B/zh active Active
-
2016
- 2016-10-28 WO PCT/CN2016/103691 patent/WO2017076222A1/zh active Application Filing
- 2016-10-28 EP EP16861490.7A patent/EP3373293B1/en active Active
- 2016-10-28 JP JP2018541475A patent/JP6686154B2/ja active Active
-
2018
- 2018-05-03 US US15/969,926 patent/US10741170B2/en active Active
-
2020
- 2020-06-22 US US16/908,419 patent/US11664020B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10741170B2 (en) | 2020-08-11 |
US11664020B2 (en) | 2023-05-30 |
CN106683677B (zh) | 2021-11-12 |
JP2018536905A (ja) | 2018-12-13 |
US20180254036A1 (en) | 2018-09-06 |
CN106683677A (zh) | 2017-05-17 |
WO2017076222A1 (zh) | 2017-05-11 |
US20200320977A1 (en) | 2020-10-08 |
EP3373293A4 (en) | 2019-06-26 |
EP3373293B1 (en) | 2022-12-28 |
EP3373293A1 (en) | 2018-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6686154B2 (ja) | 発話認識方法及び装置 | |
US11158305B2 (en) | Online verification of custom wake word | |
US11132992B2 (en) | On-device custom wake word detection | |
US10878807B2 (en) | System and method for implementing a vocal user interface by combining a speech to text system and a speech to intent system | |
US9697827B1 (en) | Error reduction in speech processing | |
JP5072206B2 (ja) | 音声分類および音声認識のための隠れ条件付確率場モデル | |
KR100845428B1 (ko) | 휴대용 단말기의 음성 인식 시스템 | |
US10381000B1 (en) | Compressed finite state transducers for automatic speech recognition | |
US7447633B2 (en) | Method and apparatus for training a text independent speaker recognition system using speech data with text labels | |
JP2017513047A (ja) | 音声認識における発音予測 | |
CN112331206A (zh) | 语音识别方法及设备 | |
EP1385147A2 (en) | Method of speech recognition using time-dependent interpolation and hidden dynamic value classes | |
JPH09127978A (ja) | 音声認識方法及び装置及びコンピュータ制御装置 | |
JP2004226982A (ja) | 隠れ軌跡隠れマルコフモデルを使用した音声認識の方法 | |
JP2020042257A (ja) | 音声認識方法及び装置 | |
JP5688761B2 (ja) | 音響モデル学習装置、および音響モデル学習方法 | |
TWI731921B (zh) | 語音識別方法及裝置 | |
JP6546070B2 (ja) | 音響モデル学習装置、音声認識装置、音響モデル学習方法、音声認識方法、およびプログラム | |
CN111816164A (zh) | 用于语音识别的方法及设备 | |
Qiu et al. | Context-aware neural confidence estimation for rare word speech recognition | |
KR20210052563A (ko) | 문맥 기반의 음성인식 서비스를 제공하기 위한 방법 및 장치 | |
WO2021106047A1 (ja) | 検知装置、その方法、およびプログラム | |
KR20230064466A (ko) | 음성 인식 방법 및 장치 | |
KR20240000474A (ko) | 신경망에 기반하는 키워드 스포팅 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200204 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6686154 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |