JP2021140134A - 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム - Google Patents

音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム Download PDF

Info

Publication number
JP2021140134A
JP2021140134A JP2020157479A JP2020157479A JP2021140134A JP 2021140134 A JP2021140134 A JP 2021140134A JP 2020157479 A JP2020157479 A JP 2020157479A JP 2020157479 A JP2020157479 A JP 2020157479A JP 2021140134 A JP2021140134 A JP 2021140134A
Authority
JP
Japan
Prior art keywords
text
valid
slot
analysis result
current text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020157479A
Other languages
English (en)
Other versions
JP7365985B2 (ja
Inventor
ヂァン,イーメェィ
Yumei Zhang
フゥー,グゥイ
Gui He
フゥー,ヂィン
Jin Hu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021140134A publication Critical patent/JP2021140134A/ja
Application granted granted Critical
Publication of JP7365985B2 publication Critical patent/JP7365985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びプログラムを提供する。【解決手段】音声認識方法は、音声フレームが検出されたことに応答してリアルタイムで音声フレームを現在のテキストに変換するステップと、以前に保存されていた履歴テキストが存在しない場合には現在のテキストを意味解析モデルに入力して解析結果を取得するステップと、解析結果が有効な意図のスロットを含む場合には音声エンドポイントを終了して認識を完了するステップと、有効な意図のスロットに対応する命令を出力するステップとを含む。音声を認識すると同時に意図を解析し、有効な意図に対しては認識・解析フローを予定より早くに完了することで音声の認識・解析の速度を大きく向上し、無効な意図に対しては音声エンドポイントの時間を自動的に延長して有効な意図を認識するまで認識を継続することで認識の精度を向上する。【選択図】図2

Description

本開示の実施形態は、コンピュータの技術分野に関し、特に、音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムに関する。
1つの音声認識の適用シーンでは、すべての意図が一貫してポーズのない文で表現されるわけではない。したがって、1つの汎用的なフルシーン音声区間検出アルゴリズムでは、ユーザの実際のニーズを満たすことができない。なぜなら、同一ユーザにとって、異なる意図に対応する発話速度とポーズの時間が異なるからである。
音声認識エンジンは、フリーズ、ネットワーク状態悪化などのシーンでは、認識の失敗や不完全な認識となり、認識結果に大きな差が生じてしまい、音声認識のユーザ体験に影響を与える。
従来技術は、通常、ユーザがしばらく発話を継続していないかどうかを音声ストリームレイヤーから検出し、エンドポイントとして終了する。このような認識時間を固定する方法は、柔軟性に欠ける。
本開示の実施形態は、音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラムを提案する。
第1態様において、本開示の実施例は音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するステップと、以前に保存されていた履歴テキストが存在しない場合、前記現在のテキストを意味解析モデルに入力し、解析結果を取得するステップと、前記解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するステップと、前記有効な意図のスロットに対応する命令を出力するステップとを含む、音声を認識するための方法を提供する。
いくつかの実施例において、該方法は、解析結果に有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップをさらに含む。
いくつかの実施例において、該方法は、以前に保存されていた履歴テキストが存在する場合、現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップと、新しい解析結果に有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップと、新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するステップと、をさらに含む。
いくつかの実施例において、現在のテキストと履歴テキストとを意味解析モデルに入力するステップは、現在のテキストと履歴テキストとをスプライシング又は接合するステップと、スプライシングに成功した場合、スプライシング後の現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップとを含む。
いくつかの実施例において、現在のテキストと履歴テキストとを意味解析モデルに入力するステップは、スプライシングに失敗した場合、履歴テキストを現在のテキストにリセットし、現在のテキストのみを意味解析モデルに入力するステップとを含む。
いくつかの実施例において、該方法は、解析結果が有効な意図のスロットを含むとともに一定の結果である場合、解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶するステップと、解析すべきテキストが取得されたことに応答して、解析すべきテキストと対応関係テーブルとをマッチングするステップと、マッチングに成功した場合、意味解析モデルを介さずに、解析すべきテキストに対応するキャッシュ命令を直接返すステップとをさらに含む。
第2態様において、本開示の実施例は、音声フレームが検出されたことに応答して、リアルタイムで音声フレームを現在のテキストに変換するように構成された変換ユニットと、以前に保存されていた履歴テキストが存在しない場合、現在のテキストを意味解析モデルに入力し、解析結果を取得するように構成された解析ユニットと、解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するように構成された判断ユニットと、有効な意図のスロットに対応する命令を出力するように構成された出力ユニットとを含む、音声を認識するための装置を提供する。
いくつかの実施例において、該装置は、解析結果に有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるように構成されたスプライシングユニットをさらに含む。
いくつかの実施例において、スプライシングユニットはさらに、以前に保存されていた履歴テキストが存在する場合、現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得し、新しい解析結果に有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させ、新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するように構成されている。
いくつかの実施例において、スプライシングユニットはさらに、現在のテキストと履歴テキストとをスプライシングし、スプライシングに成功した場合、スプライシング後の現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するように構成されている。
いくつかの実施例において、スプライシングユニットはさらに、スプライシングに失敗した場合、履歴テキストを現在のテキストにリセットし、現在のテキストのみを意味解析モデルに入力するように構成されている。
いくつかの実施例において、該装置は、解析結果が有効な意図のスロットを含むとともに一定の結果である場合、解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶し、解析すべきテキストが取得されたことに応答して、解析すべきテキストと対応関係テーブルとをマッチングし、マッチングに成功した場合、意味解析モデルを介さずに、解析すべきテキストに対応するキャッシュ命令を直接返すように構成されたキャッシュユニットをさらに含む。
第3態様において、本開示の実施例は、1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶する記憶装置と、を含む音声を認識するための電子機器であって、1つまたは複数のプログラムが1つまたは複数のプロセッサによって実行されると、1つまたは複数のプロセッサが第1態様のいずれか一項に記載の方法を実施する、音声を認識するための電子機器を提供する。
第4態様において、本開示の実施例はコンピュータプログラムが記憶されているコンピュータ可読媒体であって、プログラムがプロセッサによって実行されると、第1態様のいずれか一項に記載の方法を実施する、コンピュータ可読媒体を提供する。
第5態様において、本開示の実施例はコンピュータプログラムであって、前記コンピュータプログラムがプロセッサにより実行されると、第1態様のいずれか一項に記載の方法を実現する、コンピュータプログラムを提供する。
本開示の実施形態が提供する音声を認識するための方法および装置は、意味解析モデルを構築することによって、音声を認識すると同時に意図を解析し、有効な意図に対しては、認識・解析フローを予定より早く完了することで、音声の認識・解析の速度を大きく向上させることができ、無効な意図に対しては、音声エンドポイントの時間を自動的に延長し、有効な意図を認識するまで認識を継続することで、認識の精度を向上させることができる。
以下の図面を参照してなされた非限定的な実施形態に対する詳細な説明を読むことによって、本開示のその他の特徴、目的、および利点はより明らかになるであろう。
本開示の一実施形態が適用可能な例示的なシステムアーキテクチャである。 本開示に係る音声を認識するための方法の一実施形態のフローチャートである。 本開示に係る音声を認識するための方法の1つの適用シーンの概略図である。 本開示に係る音声を認識するための方法の別の実施形態のフローチャートである。 本開示に係る音声を認識するための装置の一実施形態の構成概略図である。 本開示の実施形態の実施を実現する電子機器に適したコンピュータシステムの構成概略図である。
以下、本開示について、添付の図面および実施形態に関連してさらに詳細に説明する。本明細書に記載された特定の実施形態は、発明への限定ではなく、関連する発明を説明するためにのみ使用されることを理解されたい。なお、説明を容易にするために、図面には、関連する発明に関連する部分のみが示されている。
なお、本開示における実施形態および実施形態における特徴は、衝突しない前提で、互いに組み合わせられてもよい。以下、本開示について図面を参照し、実施形態に関連して詳細に説明する。
図1は、本開示の音声を認識するための方法または音声を認識するための装置の一実施形態が適用可能な例示的なシステムアーキテクチャ100を示す。
図1に示すように、システムアーキテクチャ100は、マイク101、コントローラ102、音声認識サーバ103、意味理解サーバ104を含むことができる。ネットワークは、コントローラ102と、音声認識サーバ103と、意味理解サーバ104との間に通信リンクを提供するための媒体である。ネットワークは、有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、マイク101を使用してコントローラ102に音声を入力することができる。次いで、コントローラ102は、ネットワークを介して音声認識サーバ103、意味理解サーバ104と対話して、メッセージ等を受信または送信する。マイク101は、無人車等のモバイル装置に取り付けられた音声入力機器であってもよいし、携帯電話、コンピュータ等の内蔵機器であってもよい。コントローラは、車載機器であってもよいし、携帯電話、コンピュータ等の内蔵機器であってもよい。コントローラ102は、情報を送受信する機能を有する。
コントローラ102はまた、オフライン音声認識および意味理解の機能を備える。例えば、オフラインで呼び覚まし語などを認識することができる。オフラインで音声認識ができない場合には、音声を音声認識サーバに送信し、音声認識を行い、文字を取得する必要がある。さらに文字を意味理解サーバに送信し、命令を取得する。
音声認識サーバ103は、コントローラ102から送信された音声を受信し、音声における語彙内容をキー、バイナリコード、文字シーケンスなどのコンピュータ読み取り可能な入力に変換するためのものである。話者認識や話者確認とは異なる。後者は、その中に含まれる語彙内容ではなく、音声を発する話者の認識や確認を試みる。音声認識サーバ102には、音声認識システムが取り付けられている。音声認識システムは一般的に訓練と復号化の2段階に分けられる。訓練とは、アノテーションが付与された大量の音声データにより音響モデルを訓練することをいう。復号化とは、訓練集合外の音声データを音響モデルと言語モデルにより文字として認識することをいう。訓練された音響モデルの良し悪しが、認識精度に直接影響を与える。
意味理解サーバ103は、コントローラ102から送信された文字の結果を受信し、文字の結果に基づいて意味解析を行うためのものである。意味解析とは、様々な手法を用いて、1つのテキストが表す意味内容を学習・理解することであり、如何なる言語への理解も意味解析の範疇に属するものであり得る。1つのテキストは通常、語、文、段落から構成される。理解対象の言語単位によっては、意味解析はさらに語彙レベルの意味解析、文レベルの意味解析、章又は節レベルの意味解析に分けられる。一般的には、語彙レベルの意味解析は単語の意味をどのように獲得または区別するかに注目する。文レベルの意味解析は文全体が表現する意味を解析しようとする。章又は節レベルの意味解析は自然言語テキストの内在的な構造を研究し、テキストユニット(文、従属節や段落であってもよい)間の意味関係を理解することを目的としている。簡単に言えば、意味解析の目標は、効率的なモデルやシステムを構築することにより、各言語単位(語彙、文、章節などを含む)の自動的意味解析を実施し、テキスト全体の表現の真の意味を理解することである。
なお、音声認識サーバ103、意味理解サーバ104は、ハードウェアであってもよいし、ソフトウェアであってもよい。サーバがハードウェアである場合には、複数のサーバからなる分散サーバクラスターとして実施することができ、単一のサーバとして実施することもできる。サーバはソフトウェアである場合、複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するために使用される複数のソフトウェアまたはソフトウェアモジュール)として実施することができ、単一のソフトウェアまたはソフトウェアモジュールとして実施することもできる。ここでは具体的な限定はしない。
なお、本開示の実施形態によって提供される音声を認識するための方法は、一般的にコントローラ102によって実行される。それに応じて、音声を認識するための装置は、一般的にコントローラ102内に配置される。
図1のマイク、コントローラ、音声認識サーバ、意味理解サーバの数は概略的なものに過ぎないことを理解されたい。実施のニーズに応じて、任意の数のマイク、コントローラ、音声認識サーバ、意味理解サーバを有することができる。
図2を参照すると、本開示に係る音声を認識するための方法の一実施形態のフローチャート200が示されている。この音声を認識するための方法は、以下のステップ(ステップ201〜206)を含む。
ステップ201:音声フレームが検出されたことに応答して、リアルタイムで音声フレームを現在のテキストに変換する。
本実施形態では、音声を認識するための方法の実行主体(例えば、図1に示すコントローラ)は、有線接続方式または無線接続方式によりマイクから連続した音声フレームをリアルタイムで取得することができる。音声フレームが取得される度に、音声フレームの平均エネルギーが計算される。平均エネルギーの計算方法は、従来技術を使用することができるので、これ以上説明しない。平均エネルギーが予め設定されたスタートポイント閾値よりも大きい第1の音声フレームが検出されたことに応答して、リアルタイムで第1の音声フレームおよび第1の音声フレームの後の音声フレームを、ASR(Automatic Speech Recognition)技術によって現在のテキストに変換する。
ステップ202:以前に保存されていた履歴テキストが存在しない場合、現在のテキストを意味解析モデルに入力し、解析結果を取得する。
本実施形態では、前回の音声認識後に解析に失敗した場合、音声認識結果を履歴テキストとして保存する。前回の認識に成功した場合、履歴テキストはない。履歴テキストがない場合、現在認識されている現在のテキストを意味解析モデルに直接入力する。このモデルは、「○○を聴きたい」、「○○までナビゲートする」といったユーザの意図を判断・解析するために用いられ、対応する意図のスロットを解析することができる。モデルは通常のシーンをカバーし、車両制御命令、ナビゲーション命令、音楽命令、電話命令などを含む。意味解析モデルは、スロット埋込み(Slot Filling)技術によって実施される。スロット埋込み技術とは、ユーザの意図をユーザの明確な命令に変換するために情報を補完する過程である。現在のスロット認識方法には主に知識に基づくスロット認識とモデルに基づくスロット認識の2つの方法がある。
(1)知識に基づくスロット認識方法では、マニュアルで構築した知識ベースを用いて、一定のルールマッチングによりスロット認識を行う。
(2)モデルに基づくスロット認識方法では、スロット埋込み問題をシーケンスアノテーション問題に変換し、統計的機械学習モデルを用いてスロット認識を行う。
ステップ203:解析結果が有効な意図のスロットを含む場合、音声エンドポイントの検出を終了して認識を完了する。
本実施形態では、通常のシーンは、「○○を聴きたい」、「○○までナビゲートする」など、対応する構文を備えている。意味解析モデルからこれらのシーンの特徴語にマッチした場合、エンドポイント検出の認識最適化を行い、エンドポイント認識を予定より早く終了することができる。百科事典のような他のシーンは、これに該当しない。
ここでは音声区間検出技術に係わる。音声区間検出技術とは、人間が発話を開始してから発話を終了するまでの音声をノイズ環境において検出すること、すなわち人間の話した文のスタートポイントとエンドポイントを検出することである。毎回の音声認識の流れでは、音声認識エンジンが処理を開始する前に、音声区間検出技術により音声データを分割する必要がある。音声フレームが取得される度に、当該音声フレームの平均エネルギーが計算される。その後、当該音声フレームの平均エネルギーが予め設定されたスタートポイント閾値と比較される。当該音声フレームの平均エネルギーが予め設定されたスタートポイント閾値よりも大きい場合、当該音声フレームは認識すべき音声の開始フレームであるとみなされる。
本出願の技術的解決手段では、開始フレームとそれ以降の音声フレームをリアルタイムで認識し、音声認識の中間認識結果を取得することで、意味が完全であればユーザが命令を言い終えたと考え、ユーザが言い終わったかどうかを判断するためにエネルギーを検出する必要はない。もうしばらく沈黙期間を待つことなく、認識結果を返すことができる。一方、従来技術では、エンドポイントが検出されてから、スタートポイントからエンドポイントまでの音声を合わせて認識する必要がある。
ステップ204:有効な意図のスロットに対応する命令を出力し、履歴テキストを空にする。
本実施形態では、ユーザが入力した話し言葉を機械が実行可能な命令に変換し、対応する実行モジュールに出力して実行することができる。例えば、ユーザが「『私と私の祖国』を聴きたい」と言うと、「『私と私の祖国』という曲を再生する」という命令に変換し、マルチメディアモジュールに出力して実行させる。履歴テキストに基づく解析である場合、解析成功後に履歴テキストを空にする必要がある。
ステップ205:以前に保存されていた履歴テキストが存在する場合、現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得する。
本実施形態では、以前に保存されていた履歴テキストが存在する場合、前回にユーザの意図の解析に成功しなかったことを意味する。前回にユーザは言い終わっていないか、ポーズがあった可能性がある。現在受信している音声は前回に受信したものの補足である。そのため、現在のテキストと履歴テキストとを合わせて意味解析モデルに入力し、新しい解析結果を取得する必要がある。現在のテキストと履歴テキストとをスプライシングする。スプライシングに成功した場合、スプライシングされた現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得する。スプライシングに失敗した場合、履歴テキストを現在のテキストにリセットし、現在のテキストのみを意味解析モデルに入力する。
例えば、履歴テキストが「行きたい」であり、現在のテキストが「朝陽大悦城」である場合、両者をスプライシングすると、「朝陽大悦城に行きたい」となり得る。これを意味解析モデルに入力し、「朝陽大悦城までナビゲートしてほしい」というユーザの意図を認識することができる。一方、履歴テキストが「行きたい」であり、現在のテキストが「聴きたい」である場合、履歴テキスト「行きたい」を捨て、履歴テキストを「聴きたい」にリセットする。
現在のテキストで有効な意図のスロットが解析できる場合、解析結果を直接取得し、履歴テキストを空にする。
ステップ206:解析結果に有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させる。
本実施形態では、ユーザが完全に言い終わっていなく、有効な意図のスロットが解析できない場合、認識された現在のテキストを履歴テキストとして保存することができる。新しい音声フレームを引き続き検出し、音声エンドポイントを自動的に遅延させる。パワーとタイムアウトに基づいてエンドポイントを確定することではない。
図3を参照すると、図3は、本実施形態に係る音声を認識するための方法の適用シーンの概略図である。図3の適用シーンでは、電話を入れることを制御する音声対話中に、ユーザが「打…(「電話を掛ける」における「掛ける」に相当する)」と言ったときに、音声フレームの平均エネルギーが計算され、該音声フレームの平均エネルギーが予め設定されたスタートポイント閾値よりも大きいことが検出されると、これを第1の音声フレームとする。第1の音声フレームと第1の音声フレーム以降の音声フレームを連続して音声認識し、現在のテキストを取得し、現在のテキストを意味解析モデルに入力し、解析結果を取得する。もし、ユーザが発話中に特定の語「打電話給…(「…に電話を掛ける」に相当する)」と発話してポーズをとった場合、有効な意図のスロットが解析できない。そこで、現在のテキスト「打電話給…」を履歴テキストとして保存し、ユーザが音声を入力し続けるのを待つ。そして、新しい音声フレームから「父親(「お父さん」に相当する)」を認識すると、履歴テキスト「打電話給…」と現在のテキスト「父親」をスプライシングした後、意味解析モデルに入力し、解析結果を取得する。それには有効な意図のスロットが含まれるため、音声認識を終了し、「打電話給父親(「お父さんに電話を掛ける」に相当する)」という命令をダイヤルモジュールに出力する。
さらに図4を参照すると、音声を認識するための方法の別の実施形態の流れ400が示されている。音声を認識するための方法の流れ400は、以下のステップ(ステップ401〜408)を含む。
ステップ401:音声フレームが検出されたことに応答して、リアルタイムで音声フレームを現在のテキストに変換する。
ステップ401はステップ201と実質的に同じであるので、これ以上説明しない。
ステップ402:現在のテキストとキャッシュ命令対応関係テーブルとをマッチングする。
本実施形態では、キャッシュ命令とテキストとの対応関係を予め記憶しておくことができる。キャッシュ命令は、取得された意味解析の結果が一定の結果である場合に限ってキャッシュすることができ、「…までナビゲートしてほしい」というような動的結果である場合、キャッシュすることができない。キャッシュ命令としては、例えば「その車のドアを開けてほしい」など、一般化された命令をキャッシュすることができる。予め記憶されているキャッシュ命令のほかに、使用中においても、認識解析された命令をキャッシュ命令として随時記憶することができる。
ステップ403:マッチングに成功した場合、現在のテキストにマッチしたキャッシュ命令を出力する。
本実施形態では、音声を受信してテキストに変換した後、このテキストとキャッシュ命令対応関係テーブルとを直接マッチングする。テキストに対応するキャッシュ命令が見つかれば、意味解析モデルに再入力して解析を行う必要がない。エンドポイントの検出を予定より早く終了し、繰り上げて命令を返す。
ステップ404:マッチングに失敗し、かつ以前に保存されていた履歴テキストが存在しない場合、現在のテキストを意味解析モデルに入力し、解析結果を取得する。
ステップ405:解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了する。
ステップ406:有効な意図のスロットに対応する命令を出力し、履歴テキストを空にする。
ステップ407:以前に保存されていた履歴テキストが存在する場合、現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得する。
ステップ408:解析結果には有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させる。
ステップ404〜ステップ408は、ステップ202〜206と実質的に同じであるので、これ以上説明しない。
図4から分かるように、図2の対応する実施形態と比較して、本実施形態における音声を認識するための方法の流れ400は、例えば、「運転席の窓を開く」というような「非動的な(非ダイナミックな)結果」すなわち意味解析の結果が固定される結果の最適化プロセスを具体化しており、エンドポイントの検出をより早く終了でき、反応速度を向上させることができる。
さらに図5を参照すると、上述した各図に示す方法の実施形態として、本開示は、様々な電子機器に具体的に適用可能な、図2に示す方法の実施形態に対応する音声を認識するための装置の一実施形態を提供する。
図5に示すように、本実施形態に係る音声を認識するための装置500は、音声フレームが検出されたことに応答して、リアルタイムで音声フレームを現在のテキストに変換するように構成された変換ユニット501と、以前に保存されていた履歴テキストが存在しない場合、現在のテキストを意味解析モデルに入力し、解析結果を取得するように構成された解析ユニット502と、解析結果には有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するように構成された判断ユニット503と、有効な意図のスロットに対応する命令を出力する出力ユニット504とを備える。
本実施形態では、音声を認識する装置500の変換ユニット501、解析ユニット502、判断ユニット503、出力ユニット504の具体的な処理は、図2の対応する実施形態のステップ201、ステップ202、ステップ203、ステップ204を参照することができる。
本実施形態のいくつかのオプションの実施形態では、装置500は、解析結果には有効な意図のスロットが含まれない場合、現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるように構成されたスプライシングユニット(図示せず)をさらに含む。
本実施形態のいくつかのオプションの実施形態では、スプライシングユニットはさらに、以前に保存されていた履歴テキストが存在する場合、現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得し、新しい解析結果には有効な意図のスロットが含まれない場合、現在のテキストを履歴テキスとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させ、新しい解析結果には有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するように構成されている。
本実施形態のいくつかのオプションの実施形態では、スプライシングユニットはさらに、現在のテキストと履歴テキストとをスプライシングし、スプライシングに成功した場合、スプライシング後の現在のテキストと履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するように構成されている。
本実施形態のいくつかのオプションの実施形態では、スプライシングユニットはさらに、スプライシングに失敗した場合、履歴テキストを現在のテキストにリセットし、現在のテキストのみを意味解析モデルに入力するように構成されている。
本実施形態のいくつかのオプションの実施形態では、装置500は、解析結果には有効な意図のスロットが含まれるとともに一定の結果である場合、解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶し、解析すべきテキストが取得されたことに応答して、解析すべきテキストと対応関係テーブルとをマッチングし、マッチングに成功した場合、意味解析モデルを介さずに、解析すべきテキストに対応するキャッシュ命令を直接返すように構成されたキャッシュユニット(図示せず)をさらに含む。
次に図6を参照すると、本開示の実施形態の実施に適した電子機器(例えば、図1のコントローラ)600の構成概略図が示されている。図6に示すコントローラは一例に過ぎず、本開示の実施形態の機能および使用範囲にいかなる制限も与えるべきではない。
図6に示すように、電子機器600は、読み取り専用メモリ(RОM)602に記憶されているプログラム、または記憶装置608からランダムアクセスメモリ(RAM)603にロードされたプログラムに応じて様々な適切な動作および処理を実行する処理装置(例えば、CPU、グラフィックスプロセッサなど)601を含むことができる。RAM603には、電子機器600の動作に必要な各種のプログラムおよびデータも記憶されている。処理装置601、RОM602およびRAM603は、バス604を介して互いに接続されている。バス604には、入出力(I/O)インタフェース605も接続されている。
一般に、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイク、加速度計、ジャイロスコープなどの入力装置606、液晶ディスプレイ(LCD)、スピーカ、振動子などの出力装置607、テープ、ハードディスクなどの記憶装置608、および通信装置609は、I/Oインタフェース605に接続することができる。通信装置609は、データを交換するために、電子機器600が他の装置と無線または有線通信を行うことを可能にすることができる。図6は、様々な装置を有する電子機器600を示しているが、図示した全ての装置を実施または備えることが要求されていないことを理解されたい。代替的に、より多くまたはより少ない装置を実施または備えることができる。図6に示す各ブロックは、1つの装置を表してもよく、必要に応じて複数の装置を表してもよい。
特に、本開示の実施形態によれば、フローチャートを参照して記述したプロセスは、コンピュータソフトウェアプログラムとして実施されることが可能である。例えば、本開示の実施形態は、フローチャートに示された方法を実行するためのプログラムコードを含む、コンピュータ可読媒体上に担持されたコンピュータプログラム製品を含む。このような実施形態では、コンピュータプログラムは、通信装置609を介してネットワークからダウンロードされインストールされたり、記憶装置608からインストールされたり、RОM 602からインストールされたりすることができる。このコンピュータプログラムが処理装置601によって実行されると、本開示の実施形態の方法に限定された上記機能が実行される。なお、本開示の実施形態で説明したコンピュータ可読媒体は、コンピュータ可読信号媒体若しくはコンピュータ可読記憶媒体、または上記2つの任意の組み合わせであり得る。コンピュータ可読記憶媒体は、例えば、電気的、磁気的、光学的、電磁的、赤外線の、または半導体のシステム、装置若しくはデバイス、または以上の任意の組み合わせであり得るが、これらに限られない。コンピュータ可読記憶媒体のより具体的な例は、1本または複数本の導線で電気的に接続された、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(RОM)、消去可能プログラマブル読取り専用メモリ(EPRОMまたはフラッシュメモリ)、携帯型コンパクトディスク読取り専用メモリ(CD−RОM)、光記憶装置、磁気記憶装置、または上記の任意の適切な組み合わせを含むが、これらに限られない。本開示の実施形態では、コンピュータ可読記憶媒体は、命令実行システム、装置またはデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを含むまたは記憶する任意の有形の媒体であり得る。本開示の実施形態では、コンピュータ可読信号媒体は、ベースバンド内においてまたはキャリアの一部として伝播された、コンピュータ可読プログラムコードを搬送しているデータ信号を含んでもよい。このような伝播されたデータ信号は、電磁信号、光信号、または上述の任意の適切な組み合わせを含むが、これらに限られない様々な形態を採用することができる。コンピュータ可読信号媒体はまた、コンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体であってもよい。このコンピュータ可読信号媒体は、命令実行システム、装置またはデバイスによって使用されることもそれらに結合して使用されることも可能なプログラムを送信、伝播または伝送することができる。コンピュータ可読媒体に含まれているプログラムコードは、電線、光ケーブル、RF(無線周波数)など、または上記の任意の適切な組み合わせを含むが、これらに限られない任意の適切な媒体で伝送することができる。
上記コンピュータ可読媒体は、上記電子機器に含まれるものであってもよく、個別に存在しており、該電子機器に組み込まれていないものであってもよい。上述したコンピュータ可読媒体は、上述した1つまたは複数のプログラムが電子機器によって実行されると、音声フレームが検出されたことに応答して、リアルタイムで音声フレームを現在のテキストに変換し、以前に保存されていた履歴テキストが存在しない場合、現在のテキストを意味解析モデルに入力し、解析結果を取得し、解析結果には有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、有効な意図のスロットに対応する命令を出力する。
本出願の実施形態の動作を実行するためのコンピュータプログラムコードは、1つまたは複数のプログラミング言語、またはそれらの組み合わせで書くことができる。プログラミング言語は、Java、Smalltalk、C++などのオブジェクト指向プログラミング言語や、「C」言語または類似するプログラミング言語などの従来の手続き型プログラミング言語を含む。プログラムコードは、完全にユーザのコンピュータ上で実行されることも、部分的にユーザのコンピュータ上で実行されることも、スタンドアロンソフトウェアパッケージとして実行されることも、部分的にユーザのコンピュータ上で実行されながら部分的にリモートコンピュータ上で実行されることも、または完全にリモートコンピュータまたはサーバ上で実行されることも可能である。リモートコンピュータの場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを介してユーザのコンピュータに接続されることができる。または、外部のコンピュータに接続されることができる(例えば、インターネットサービスプロバイダーによるインターネット経由で接続される)。
図面におけるフローチャートおよびブロック図は、本出願の様々な実施形態に係るシステム、方法、およびコンピュータプログラム製品の実施可能なアーキテクチャ、機能、および動作を示している。ここで、フローチャートまたはブロック図における各ブロックは、モジュール、プログラムセグメント、またはコードの一部を表すことができる。該モジュール、プログラムセグメント、またはコードの一部は、指定されたロジック関数を実施するための1つまたは複数の実行可能な命令を含む。また、いくつかの代替的な実施形態では、ブロックに記載されている機能は、図面に示されているものとは異なる順序で発生する場合があることにも留意されたい。例えば、連続して表されている2つのブロックは、実際にほぼ並行して実行されてもよく、時には逆の順序で実行されてもよい。これは関連する機能によって決まる。また、ブロック図および/またはフローチャートにおける各ブロック、およびブロック図および/またはフローチャートにおけるブロックの組み合わせは、指定された機能または動作を実行する専用のハードウェアベースのシステムで実施することも、または専用のハードウェアとコンピュータの命令の組み合わせで実施することも可能であることに留意されたい。
本開示の実施形態において説明されたユニットは、ソフトウェアまたはハードウェアによって実施され得る。説明されたユニットはプロセッサに内蔵されてもよい。例えば、「変換ユニットと、解析ユニットと、判断ユニットと、出力ユニットとを含むプロセッサ」と説明することができる。なお、これらのユニットの名称は、場合によってはユニット自体を限定するものではない。例えば、変換ユニットについては、「音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するユニット」と説明することもできる。
上記の説明は、あくまでも本出願の好ましい実施形態および応用技術原理の説明にすぎない。本出願に係る発明の範囲は、上記の技術的特徴の特定の組み合わせによって形成された技術的解決手段に限定されず、上記の発明の構想から逸脱しない範囲で上記の技術的特徴またはその同等の技術的特徴の任意の組み合わせによって形成されたその他の技術的解決手段、例えば、上記の特徴と本出願に開示された同様の機能を有する技術的特徴(それだけに限定されない)とが相互に代替することによって形成された技術的解決手段もカバーしていることを当業者は理解すべきである。
上記の説明は、あくまでも本出願の好ましい実施形態および応用技術原理の説明にすぎない。本出願に係る発明の範囲は、上記の技術的特徴の特定の組み合わせによって形成された技術的解決手段に限定されず、上記の発明の構想から逸脱しない範囲で上記の技術的特徴またはその同等の技術的特徴の任意の組み合わせによって形成されたその他の技術的解決手段、例えば、上記の特徴と本出願に開示された同様の機能を有する技術的特徴(それだけに限定されない)とが相互に代替することによって形成された技術的解決手段もカバーしていることを当業者は理解すべきである。
なお、出願当初の特許請求の範囲の記載は以下の通りである。
請求項1:
音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するステップと、
以前に保存されていた履歴テキストが存在しない場合、前記現在のテキストを意味解析モデルに入力し、解析結果を取得するステップと、
前記解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するステップと、
前記有効な意図のスロットに対応する命令を出力するステップと
を含む、音声を認識するための方法。
請求項2:
前記方法は、
解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップをさらに含む、請求項1に記載の方法。
請求項3:
前記方法は、
以前に保存されていた履歴テキストが存在する場合、前記現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップと、
新しい解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップと、
新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するステップと
をさらに含む、請求項2に記載の方法。
請求項4:
前記現在のテキストと前記履歴テキストとを意味解析モデルに入力するステップは、
前記現在のテキストと前記履歴テキストとをスプライシングするステップと、
スプライシングに成功した場合、スプライシング後の現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップと、を含む、請求項3に記載の方法。
請求項5:
前記現在のテキストと前記履歴テキストとを意味解析モデルに入力するステップは、
スプライシングに失敗した場合、前記履歴テキストを前記現在のテキストにリセットし、前記現在のテキストのみを意味解析モデルに入力するステップと
を含む、請求項4に記載の方法。
請求項6:
前記方法は、
前記解析結果が有効な意図のスロットを含むとともに一定の結果である場合、前記解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶するステップと、
解析すべきテキストが取得されたことに応答して、解析すべきテキストと前記対応関係テーブルとをマッチングするステップと、
マッチングに成功した場合、意味解析モデルを介さずに、前記解析すべきテキストに対応するキャッシュ命令を直接返すステップと
をさらに含む、請求項1〜5のいずれか一項に記載の方法。
請求項7:
音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するように構成された変換ユニットと、
以前に保存されていた履歴テキストが存在しない場合、前記現在のテキストを意味解析モデルに入力し、解析結果を取得するように構成された解析ユニットと、
前記解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するように構成された判断ユニットと、
前記有効な意図のスロットに対応する命令を出力するように構成された出力ユニットと
を含む、音声を認識するための装置。
請求項8:
前記装置は、
解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるように構成されたスプライシングユニットをさらに含む、請求項7に記載の装置。
請求項9:
前記スプライシングユニットはさらに、
以前に保存されていた履歴テキストが存在する場合、前記現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得し、
新しい解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させ、
新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するように構成されている、請求項8に記載の装置。
請求項10:
前記スプライシングユニットはさらに、
前記現在のテキストと前記履歴テキストとをスプライシングし、
スプライシングに成功した場合、スプライシング後の現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するように構成されている、請求項9に記載の装置。
請求項11:
前記スプライシングユニットはさらに、
スプライシングに失敗した場合、前記履歴テキストを前記現在のテキストにリセットし、前記現在のテキストのみを意味解析モデルに入力するように構成されている、請求項10に記載の装置。
請求項12:
前記装置は、
前記解析結果が有効な意図のスロットを含むとともに一定の結果である場合、前記解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶し、
解析すべきテキストが取得されたことに応答して、解析すべきテキストと前記対応関係テーブルとをマッチングし、
マッチングに成功した場合、意味解析モデルを介さずに、前記解析すべきテキストに対応するキャッシュ命令を直接返すように構成されたキャッシュユニットをさらに含む、請求項7〜11のいずれか一項に記載の装置。
請求項13:
1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶する記憶装置と、を含む音声を認識するための電子機器であって、
前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサが請求項1〜6のいずれか一項に記載の方法を実施する、音声を認識するための電子機器。
請求項14:
コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
前記コンピュータプログラムがプロセッサにより実行されると、請求項1〜6のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。

Claims (14)

  1. 音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するステップと、
    以前に保存されていた履歴テキストが存在しない場合、前記現在のテキストを意味解析モデルに入力し、解析結果を取得するステップと、
    前記解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するステップと、
    前記有効な意図のスロットに対応する命令を出力するステップと
    を含む、音声を認識するための方法。
  2. 前記方法は、
    解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップをさらに含む、請求項1に記載の方法。
  3. 前記方法は、
    以前に保存されていた履歴テキストが存在する場合、前記現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップと、
    新しい解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるステップと、
    新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するステップと
    をさらに含む、請求項2に記載の方法。
  4. 前記現在のテキストと前記履歴テキストとを意味解析モデルに入力するステップは、
    前記現在のテキストと前記履歴テキストとをスプライシングするステップと、
    スプライシングに成功した場合、スプライシング後の現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するステップと、を含む、請求項3に記載の方法。
  5. 前記現在のテキストと前記履歴テキストとを意味解析モデルに入力するステップは、
    スプライシングに失敗した場合、前記履歴テキストを前記現在のテキストにリセットし、前記現在のテキストのみを意味解析モデルに入力するステップと
    を含む、請求項4に記載の方法。
  6. 前記方法は、
    前記解析結果が有効な意図のスロットを含むとともに一定の結果である場合、前記解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶するステップと、
    解析すべきテキストが取得されたことに応答して、解析すべきテキストと前記対応関係テーブルとをマッチングするステップと、
    マッチングに成功した場合、意味解析モデルを介さずに、前記解析すべきテキストに対応するキャッシュ命令を直接返すステップと
    をさらに含む、請求項1〜5のいずれか一項に記載の方法。
  7. 音声フレームが検出されたことに応答して、リアルタイムで前記音声フレームを現在のテキストに変換するように構成された変換ユニットと、
    以前に保存されていた履歴テキストが存在しない場合、前記現在のテキストを意味解析モデルに入力し、解析結果を取得するように構成された解析ユニットと、
    前記解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了するように構成された判断ユニットと、
    前記有効な意図のスロットに対応する命令を出力するように構成された出力ユニットと
    を含む、音声を認識するための装置。
  8. 前記装置は、
    解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストとして保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させるように構成されたスプライシングユニットをさらに含む、請求項7に記載の装置。
  9. 前記スプライシングユニットはさらに、
    以前に保存されていた履歴テキストが存在する場合、前記現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得し、
    新しい解析結果に有効な意図のスロットが含まれない場合、前記現在のテキストを履歴テキストに合併して保存し、新しい音声フレームを引き続き検出し、音声エンドポイントの検出時間を遅延させ、
    新しい解析結果に有効な意図のスロットが含まれる場合、音声エンドポイントの検出を終了して認識を完了し、履歴テキストを空にし、有効な意図のスロットに対応する命令を出力するように構成されている、請求項8に記載の装置。
  10. 前記スプライシングユニットはさらに、
    前記現在のテキストと前記履歴テキストとをスプライシングし、
    スプライシングに成功した場合、スプライシング後の現在のテキストと前記履歴テキストとを意味解析モデルに入力し、新しい解析結果を取得するように構成されている、請求項9に記載の装置。
  11. 前記スプライシングユニットはさらに、
    スプライシングに失敗した場合、前記履歴テキストを前記現在のテキストにリセットし、前記現在のテキストのみを意味解析モデルに入力するように構成されている、請求項10に記載の装置。
  12. 前記装置は、
    前記解析結果が有効な意図のスロットを含むとともに一定の結果である場合、前記解析結果をキャッシュ命令とし、キャッシュ命令と現在のテキストとの対応関係テーブルを記憶し、
    解析すべきテキストが取得されたことに応答して、解析すべきテキストと前記対応関係テーブルとをマッチングし、
    マッチングに成功した場合、意味解析モデルを介さずに、前記解析すべきテキストに対応するキャッシュ命令を直接返すように構成されたキャッシュユニットをさらに含む、請求項7〜11のいずれか一項に記載の装置。
  13. 1つまたは複数のプロセッサと、1つまたは複数のプログラムを記憶する記憶装置と、を含む音声を認識するための電子機器であって、
    前記1つまたは複数のプログラムが前記1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサが請求項1〜6のいずれか一項に記載の方法を実施する、音声を認識するための電子機器。
  14. コンピュータプログラムが記憶されているコンピュータ可読媒体であって、
    前記コンピュータプログラムがプロセッサにより実行されると、請求項1〜6のいずれか一項に記載の方法を実現する、コンピュータ可読記憶媒体。
JP2020157479A 2020-03-04 2020-09-18 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム Active JP7365985B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010143037.5A CN113362828B (zh) 2020-03-04 2020-03-04 用于识别语音的方法和装置
CN202010143037.5 2020-03-04

Publications (2)

Publication Number Publication Date
JP2021140134A true JP2021140134A (ja) 2021-09-16
JP7365985B2 JP7365985B2 (ja) 2023-10-20

Family

ID=72474202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020157479A Active JP7365985B2 (ja) 2020-03-04 2020-09-18 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム

Country Status (4)

Country Link
US (1) US11416687B2 (ja)
EP (1) EP3876231A1 (ja)
JP (1) JP7365985B2 (ja)
CN (1) CN113362828B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113903342B (zh) * 2021-10-29 2022-09-13 镁佳(北京)科技有限公司 一种语音识别纠错方法及装置
CN114299941B (zh) * 2021-11-12 2024-08-06 北京百度网讯科技有限公司 语音交互的方法、装置、电子设备及存储介质
US20230230578A1 (en) * 2022-01-20 2023-07-20 Google Llc Personalized speech query endpointing based on prior interaction(s)
CN114582333A (zh) * 2022-02-21 2022-06-03 中国第一汽车股份有限公司 语音识别方法、装置、电子设备及存储介质
CN114898755B (zh) * 2022-07-14 2023-01-17 科大讯飞股份有限公司 语音处理方法及相关装置、电子设备、存储介质
CN115457959B (zh) * 2022-11-08 2023-02-10 广州小鹏汽车科技有限公司 语音交互方法、服务器及计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015686A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 音声対話装置、音声対話方法及び音声対話処理プログラム
JP2003216179A (ja) * 2002-01-24 2003-07-30 Nec Corp 音声認識システム
JP2015099253A (ja) * 2013-11-19 2015-05-28 東芝テック株式会社 音声認識装置、音声認識方法、音声認識プログラム
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
JP2018504623A (ja) * 2015-09-03 2018-02-15 グーグル エルエルシー 強化された発話エンドポイント指定
JP2018151631A (ja) * 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド ドメイン曖昧性除去を含む音声対応システム
WO2019031268A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、及び情報処理方法
JP2019534492A (ja) * 2016-08-18 2019-11-28 ハイパーコネクト インコーポレイテッド 通訳装置及び方法(device and method of translating a language into another language)

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6138100A (en) * 1998-04-14 2000-10-24 At&T Corp. Interface for a voice-activated connection system
US6813603B1 (en) * 2000-01-26 2004-11-02 Korteam International, Inc. System and method for user controlled insertion of standardized text in user selected fields while dictating text entries for completing a form
US6865528B1 (en) * 2000-06-01 2005-03-08 Microsoft Corporation Use of a unified language model
US6964023B2 (en) 2001-02-05 2005-11-08 International Business Machines Corporation System and method for multi-modal focus detection, referential ambiguity resolution and mood classification using multi-modal input
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8296151B2 (en) * 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US11068657B2 (en) * 2010-06-28 2021-07-20 Skyscanner Limited Natural language question answering system and method based on deep semantics
US9437186B1 (en) 2013-06-19 2016-09-06 Amazon Technologies, Inc. Enhanced endpoint detection for speech recognition
US10614799B2 (en) * 2014-11-26 2020-04-07 Voicebox Technologies Corporation System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance
US9818404B2 (en) * 2015-12-22 2017-11-14 Intel Corporation Environmental noise detection for dialog systems
US10152965B2 (en) * 2016-02-03 2018-12-11 Google Llc Learning personalized entity pronunciations
US10140988B2 (en) * 2016-03-01 2018-11-27 Microsoft Technology Licensing, Llc Speech recognition
CN107665706B (zh) * 2016-07-29 2021-05-04 科大讯飞股份有限公司 快速语音交互方法及系统
US10331791B2 (en) * 2016-11-23 2019-06-25 Amazon Technologies, Inc. Service for developing dialog-driven applications
KR20180084394A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 발화 완료 감지 방법 및 이를 구현한 전자 장치
CN106874259B (zh) 2017-02-23 2019-07-16 腾讯科技(深圳)有限公司 一种基于状态机的语义解析方法及装置、设备
KR102398649B1 (ko) * 2017-03-28 2022-05-17 삼성전자주식회사 사용자 발화를 처리하는 전자 장치 및 그 동작 방법
CN107146602B (zh) * 2017-04-10 2020-10-02 北京猎户星空科技有限公司 一种语音识别方法、装置及电子设备
CN107195303B (zh) * 2017-06-16 2021-08-20 云知声智能科技股份有限公司 语音处理方法及装置
CN107919130B (zh) * 2017-11-06 2021-12-17 百度在线网络技术(北京)有限公司 基于云端的语音处理方法和装置
CN107992587A (zh) * 2017-12-08 2018-05-04 北京百度网讯科技有限公司 一种浏览器的语音交互方法、装置、终端和存储介质
US10818288B2 (en) 2018-03-26 2020-10-27 Apple Inc. Natural assistant interaction
US10943606B2 (en) 2018-04-12 2021-03-09 Qualcomm Incorporated Context-based detection of end-point of utterance
KR102096590B1 (ko) * 2018-08-14 2020-04-06 주식회사 알티캐스트 Gui 음성제어 장치 및 방법
CN109447819A (zh) * 2018-09-03 2019-03-08 中国平安人寿保险股份有限公司 一种智能话术提醒方法、系统及终端设备
US10825450B2 (en) * 2018-10-25 2020-11-03 Motorola Solutions, Inc. Methods and systems for providing a response to an audio query where the response is determined to have a public safety impact
CN109599130B (zh) * 2018-12-10 2020-10-30 百度在线网络技术(北京)有限公司 收音方法、装置及存储介质
CN109754809B (zh) * 2019-01-29 2021-02-09 北京猎户星空科技有限公司 语音识别方法、装置、电子设备及存储介质
CN109979437B (zh) * 2019-03-01 2022-05-20 阿波罗智联(北京)科技有限公司 语音识别方法、装置、设备和存储介质
CN110287303B (zh) * 2019-06-28 2021-08-20 北京猎户星空科技有限公司 人机对话处理方法、装置、电子设备及存储介质
US11551665B2 (en) * 2019-09-12 2023-01-10 Oracle International Corporation Dynamic contextual dialog session extension
US11749265B2 (en) * 2019-10-04 2023-09-05 Disney Enterprises, Inc. Techniques for incremental computer-based natural language understanding

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003015686A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 音声対話装置、音声対話方法及び音声対話処理プログラム
JP2003216179A (ja) * 2002-01-24 2003-07-30 Nec Corp 音声認識システム
JP2015099253A (ja) * 2013-11-19 2015-05-28 東芝テック株式会社 音声認識装置、音声認識方法、音声認識プログラム
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
JP2018504623A (ja) * 2015-09-03 2018-02-15 グーグル エルエルシー 強化された発話エンドポイント指定
JP2019534492A (ja) * 2016-08-18 2019-11-28 ハイパーコネクト インコーポレイテッド 通訳装置及び方法(device and method of translating a language into another language)
JP2018151631A (ja) * 2017-03-10 2018-09-27 サウンドハウンド,インコーポレイテッド ドメイン曖昧性除去を含む音声対応システム
WO2019031268A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、及び情報処理方法

Also Published As

Publication number Publication date
CN113362828A (zh) 2021-09-07
CN113362828B (zh) 2022-07-05
EP3876231A1 (en) 2021-09-08
US11416687B2 (en) 2022-08-16
JP7365985B2 (ja) 2023-10-20
US20210279418A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
US11887604B1 (en) Speech interface device with caching component
JP2021140134A (ja) 音声を認識するための方法、装置、電子機器、コンピュータ可読記憶媒体及びコンピュータプログラム
CN110047481B (zh) 用于语音识别的方法和装置
CN100424632C (zh) 用于高级交互接口的语义对象同步理解
KR100908358B1 (ko) 음성 인식을 위한 방법, 모듈, 디바이스 및 서버
JP6078964B2 (ja) 音声対話システム及びプログラム
EP2411977B1 (en) Service oriented speech recognition for in-vehicle automated interaction
CN100578614C (zh) 用语音应用语言标记执行的语义对象同步理解
CN109754809B (zh) 语音识别方法、装置、电子设备及存储介质
US8484031B1 (en) Automated speech recognition proxy system for natural language understanding
US20150073802A1 (en) Dealing with switch latency in speech recognition
CN110689877A (zh) 一种语音结束端点检测方法及装置
US20120253823A1 (en) Hybrid Dialog Speech Recognition for In-Vehicle Automated Interaction and In-Vehicle Interfaces Requiring Minimal Driver Processing
US20110110502A1 (en) Real time automatic caller speech profiling
CN111916062B (zh) 语音识别方法、装置和系统
CN114330371A (zh) 基于提示学习的会话意图识别方法、装置和电子设备
WO2023109129A1 (zh) 语音数据的处理方法及装置
CN113611316A (zh) 人机交互方法、装置、设备以及存储介质
CN111933149A (zh) 语音交互方法、穿戴式设备、终端及语音交互系统
CA2839285A1 (en) Hybrid dialog speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
TW201828279A (zh) 語音識別方法及裝置
JP4408665B2 (ja) 音声認識用発話データ収集装置、音声認識用発話データ収集方法、及びコンピュータプログラム
CN113763921B (zh) 用于纠正文本的方法和装置
Bagein et al. Enabling speech based access to information management systems over wireless network
JP2003228393A (ja) 音声対話装置及び方法、音声対話プログラム並びにその記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201224

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201224

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20211101

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20220915

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231010

R150 Certificate of patent or registration of utility model

Ref document number: 7365985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150