JP2023505917A - 音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体 - Google Patents

音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体 Download PDF

Info

Publication number
JP2023505917A
JP2023505917A JP2021576945A JP2021576945A JP2023505917A JP 2023505917 A JP2023505917 A JP 2023505917A JP 2021576945 A JP2021576945 A JP 2021576945A JP 2021576945 A JP2021576945 A JP 2021576945A JP 2023505917 A JP2023505917 A JP 2023505917A
Authority
JP
Japan
Prior art keywords
entity
voice
inquiry
answer information
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021576945A
Other languages
English (en)
Inventor
フアン、ジジョウ
ディン、シチアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023505917A publication Critical patent/JP2023505917A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Abstract

本開示は人工知能及び音声技術の分野に関する音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体を開示する。具体的な実現方案は、ユーザが入力した音声命令に対して音声認識とニーズ解析を行い、解析された未知のニーズに応答して、前記ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得し、前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得し、前記回答情報を使用して前記ユーザに第1の音声応答を返す。本開示は、音声アシスタントの本来のニーズを満たす面での盲点を補い、ユーザの新しいニーズを可能な限り問い合わせ、ユーザ体験を向上させることができる。【選択図】図2

Description

本開示は、コンピュータアプリケーション技術の分野に関し、特に、人工知能及び音声技術の分野に関する。
[優先権情報]
本開示は、出願日が2020年11月20日であり、出願番号が2020113075868であり、発明の名称が「音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体」である中国特許開示の優先権を主張する。
本部分は、特許請求の範囲に記載された本発明の実施形態の背景またはコンテキストを提供することを意図する。ここの説明は、本部分に含まれているという理由で従来の技術に見なされることはない。
音声インタラクション技術の発展に伴い、ユーザはスマートスピーカー、スマートフォンなどの端末機器と音声インタラクションを行うことができる。端末機器のオペレーティングシステムに付属する音声アシスタント以外に、ますます多くのアプリケーションが音声インタラクション技術が搭載されている。ユーザは、音声命令を入力することによって対応するサービスを取得することができ、両手をかなり解放することができる。
従来の音声インタラクションシナリオでは、ユーザのニーズを事前に列挙できないため、ユーザが入力した音声命令を音声認識し、ニーズを理解した後、常に、音声アシスタントがユーザの新しいニーズを解決できない場合に直面し、「すみません、私はまだこの情報を知りません」などの応答のみをユーザに返す。このような応答方式はユーザに悪い体験をもたらし、ユーザのニーズを満たすことができない。
これに鑑みて、本開示は、ユーザの新しいニーズを満たし、ユーザ体験を向上させるために、音声インタラクション方法、装置、機器及び記憶媒体を提供する。
第1の態様によれば、音声インタラクション方法を提供し、
ユーザが入力した音声命令に対して音声認識とニーズ解析を行うステップと、
解析された未知のニーズに応答して、前記ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得し、前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得するステップと、
前記回答情報を使用して前記ユーザに第1の音声応答を返すステップと、を含む。
第2の態様によれば、音声インタラクション装置を提供し、
ユーザが入力した音声命令に対して音声認識とニーズ解析を行うための音声処理ユニットと、
前記音声処理ユニットが解析された未知のニーズに応答して、前記ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得するための対話対策ユニットと、
前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得するための自動問い合わせユニットと、
前記回答情報を使用して前記ユーザに第1の音声応答を返すための音声インタラクションユニットと、を含む。
第3の態様によれば、電子機器を提供し、
少なくとも一つのプロセッサと、
前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが上記の方法を実行させる。
第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提供し、前記コンピュータ命令は、前記コンピュータに上記の方法を実行させる。
上記の技術案により分かるように、本開示は、ユーザの新しいニーズを解析して取得する場合、新しいニーズを解決できない音声応答をユーザに簡単に返信するのではなく、問い合わせエンティティと通信することで問い合わせ内容に対応する回答情報を取得し、回答情報を使用してユーザに音声応答を返す。このような方式は、音声アシスタントの本来のニーズを満たす面での盲点を補い、ユーザの新しいニーズを可能な限り問い合わせ、ユーザ体験を向上させることができる。
本明細書に説明された内容は、本開示の実施例のキー又は重要な特徴を識別することを意図するものではなく、本開示の範囲を限定することを意図するものでもないことを理解されたい。本開示の他の特徴は、以下の説明によって容易に理解される。
図面は、本開示をより良く理解するためのものであり、本開示を限定しない。
本発明の実施例を適用することができる例示的なシステムアーキテクチャを示す。 本開示の実施例1により提供される主な方法のフローチャートである。 本開示の実施例2により提供される実現可能な方法のフローチャートである。 本開示の実施例3により提供される実現可能な方法のフローチャートである。 本開示の実施例4により提供される実現可能な方法のフローチャートである。 本開示の実施例5により提供される音声インタラクション装置の構造図である。 本開示の実施例を実現するための電子機器のブロック図である。
以下、図面に基づいて、本開示の例示の実施例を表現する。理解を容易にするために、本開示の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本開示の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の表現では、よく知られた機能と構造の表現は省略される。
図1は本発明の実施例を適用することができる例示的なシステムアーキテクチャを示す。図1に示すように、当該システムアーキテクチャは、端末機器101及び102、ネットワーク103、及びサーバ104を含むことができる。ネットワーク103は、端末機器101、102とサーバ104との間に通信リンクを提供する媒体である。ネットワーク103は、有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末機器101及び102を使用してネットワーク103を介してサーバ104とインタラクションすることができる。端末機器101及び102に、音声インタラクションアプリケーション、ウェブブラウザアプリケーション、通信アプリケーションなどの様々なアプリケーションがインストールされていることができる。
端末機器101及び102は音声インタラクションをサポートする様々な電子機器であってもよく、スクリーンを備えたデバイスであってもよく、スクリーンを備えていないデバイスであってもよい。スマートフォン、タブレット、スマートスピーカー、スマートテレビなどが含まれるが、これらに限定されない。本発明により提供される音声インタラクション装置は、上記のサーバ104に設置して実行することができ、処理機能が強い端末機器101及び102に設置して実行することもできる。複数のソフトウェアまたはソフトウェアモジュール(例えば、分散サービスを提供するために)として実現することができ、単一のソフトウェアまたはソフトウェアモジュールとして実現することもでき、ここでは具体的に限定しない。
例えば、音声インタラクション装置は上記のサーバ104に設置して実行し、端末機器101はユーザが入力した音声命令をネットワーク103を介してサーバ104に送信する。サーバ104は、本発明の実施例により提供される方法を使用して処理した後、処理結果を端末機器101に返し、さらに、端末機器101によってユーザに提供して、ユーザとの間の音声インタラクションを実現する。
サーバ104は、単一のサーバであってもよく、複数のサーバによって構成されるサーバグループであってもよい。図1の端末機器、ネットワーク及びサーバの数は単なる例示的なものであることを理解することができる。実現需要に応じて、任意の数を有する端末機器、ネットワーク及びサーバであってもよい。
実施例1
図2は本開示の実施例1により提供される主な方法のフローチャートである。図2に示すように、当該方法は、以下のようなステップを含むことができ、
201では、ユーザが入力した音声命令に対して音声認識とニーズ解析を行う。
ユーザが入力した音声命令に対して、まず、音声認識を行う。音声認識で取得されたテキストを取得した後、ニーズ解析を行う。ニーズ解析の目的は、ユーザの具体的なニーズ(意図とも呼ばれることができる)を理解して、ユーザに正確なサービスを提供するためである。ニーズ解析は、自然言語処理のセマンティック理解を使用し、当該部分の内容は、既存の比較的成熟した実現方式を使用することができ、ここでは詳細に説明しない。
202では、解析された未知のニーズに応答して、ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得し、問い合わせエンティティと通信することで問い合わせ内容に対応する回答情報を取得する。
解析して取得したのが既知のニーズである場合、通常、当該既知のニーズに対応する応答方式または音声応答が既に記憶されており、当該既知のニーズに対応する応答方式を直接に使用して応答または音声応答を行う。このような状況は詳細に説明しない。
未知のニーズ、すなわち新しいニーズを解析して取得した場合、本開示の実施例により提供される方式を使用して処理する。
上記の問い合わせエンティティとは、ニーズ解析の結果においてユーザが取得しようとする情報に対応するエンティティオブジェクトを指し、問い合わせ内容とは、ニーズ解析の結果においてユーザが取得したい情報の内容を指す。具体的には、後続の実施例で詳細に説明する。
203では、回答情報を使用してユーザに第1の音声応答を返す。
当該実施例から分かるように、本開示は、ユーザの新しいニーズを解析して取得する場合、新しいニーズを解決できない音声応答をユーザに簡単に返信するのではなく、問い合わせエンティティと通信することで問い合わせ内容に対応する回答情報を取得し、回答情報を使用してユーザに音声応答を返す。このような方式は、音声アシスタントの本来のニーズを満たす面での盲点を補い、ユーザの新しいニーズを可能な限り問い合わせ、ユーザ体験を向上させることができる。
なお、本開示の音声応答に関する「第1」、「第2」、「第3」など、例えば、「第1の音声応答」、「第2の音声応答」、及び「第3の音声応答」については、順次、数量、及び名前上の制限を備えず、異なる音声応答のみを区別するために用いられる。
実施例2
図3は本開示の実施例2により提供される実現可能な方法のフローチャートである。図3に示すように、当該方法は、以下のようなステップを含むことができ、
301では、ユーザが入力した音声命令に対して音声認識とニーズ解析を行う。
302では、既知のニーズを解析して取得するか否かを判断し、そうである場合、303を実行し、そうでない場合、304を実行する。
303では、既知のニーズに対応する回答情報を使用してユーザに第4の音声応答を返し、プロセスを終了する。
通常、既知のニーズが対応する回答情報が既に記憶されているため、当該回答情報を直接に使用して音声合成を行い、または既存の音声セグメントを使用してスプライスなどの処理を行った後、第4の音声応答を返すことができる。
304では、ユーザに第2の音声応答を返して回答情報をしばらくしてから提供することを報知する。
未知のニーズ、すなわち新しいニーズについて、まず、例えば、「メモしました、すぐに最新のメッセージを問い合わせ、5分以内にあなたに回答する予定です」、「受け取りました、今からメッセージを探して、しばらくしてから回答します」などのこのような予め設定された音声応答をユーザに返す。音声アシスタントが回答を一生懸命に取得してしばらくしてから回答することをユーザに明確させ、ユーザ体験を向上させる。
305では、ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得し、問い合わせエンティティと通信することでユーザ問い合わせ内容に対応する回答情報を取得する。
なお、本開示で提供される方式は、主に音声命令が問い合わせ類の音声命令であり、つまり、ユーザが音声命令の問い合わせによっていくつかの情報を取得することを望む。例えば、「安寧荘の列車の切符販売代理店は、列車の切符の代用領収書を印刷できますか」、「全聚徳ダック店は現在配達できますか」、「華聯スーパーは扇風機を販売していますか」などである。
ニーズ解析後に取得された新しいニーズについて、コア情報の抽出を行うことができる。コア情報は、少なくとも問い合わせエンティティ情報と問い合わせ内容を含む。抽出方式は、セマンティック理解の方式に基づいて実現することができ、ここでは詳細に説明しない。
例えば、新しいニーズ「安寧荘の列車の切符販売代理店は、列車の切符の代用領収書を印刷できますか」について、その中から抽出された問い合わせエンティティは「安寧荘の列車の切符販売代理店」であり、問い合わせ内容は「列車の切符の代用領収書を印刷する」である。さらに、ドメイン知識ベースから通信方式情報、位置情報などの問い合わせエンティティ情報を取得することができる。例えば、地図知識ベースから「安寧荘の列車の切符販売代理店」の電話を照会することができる。
問い合わせエンティティ情報に対応する通信方式に従って問い合わせエンティティと少なくとも1回のインタラクションを行って、問い合わせエンティティに問い合わせ内容を送信し、問い合わせエンティティから返される回答情報を取得する。上記の例を続けて、音声アシスタントが電話の方式で「安寧荘の列車の切符販売代理店」に電話をして以下のインタラクションを行い、
「音声アシスタント:こんにちは、私はカスタマーサービス**(音声アシスタントのブランド名)、安寧荘の列車の切符販売代理店ですか?
安寧荘の列車の切符販売代理店:はい。
音声アシスタント:列車の切符の代用領収書を印刷できますか?
安寧荘の列車の切符販売代理店:できません。
音声アシスタント:ご協力ありがとうございます、さようなら」
以上のインタラクションにおける音声アシスタントの問い合わせ音声は、予め設定されたテンプレートに基づいて問い合わせ内容と問い合わせエンティティ情報を組み合わせて生成することができる。上記のインタラクションによって取得された回答内容は「できません」である。
電話インタラクション方式に加えて、問い合わせエンティティの他の通信方式が取得された場合、ウィーチャットインタラクション、電子メールインタラクション、専用のインスタント通信アプリケーションなどの他の通信方式を使用してインタラクションすることもできる。
306では、回答情報を使用してユーザに第1の音声応答を返す。
本ステップでは、予め設定されたテンプレートに基づいて、上記の回答情報を使用して第1の応答テキストを生成し、第1の応答テキストを使用して音声合成または音声スプライスを行った後に第1の音声応答を取得することができる。
上記の例を続けて、テンプレートが「『通信方式』で『問い合わせエンティティ』『回答内容』『照会内容』の確認」であると仮定するため、「電話で確認し、安寧荘の列車の切符販売代理店は列車の切符の代用領収書を印刷できません」をユーザに返すことができる。
307では、ニーズ解析の結果を既知のニーズとして記録し、取得された回答メッセージを対応して記憶する。
記録後、他のユーザが当該既知のニーズを問い合わせる場合、対応する回答メッセージを使用して音声応答を生成し、当該音声応答をユーザに返し、応答効率を向上させることができる。
好ましい実施形態として、既知のニーズとそれに対応する第1の音声応答については、エージング時間を設置して情報の時効性と有効性を確保することができる。エージング時間に達して後、当該既知のニーズとそれに対応する第1の音声応答が削除され、再度に問い合わせエンティティに問い合わせを行うことで取得する必要がある。
実施例3
図4は本開示の実施例3により提供される実現可能な方法のフローチャートである。図4に示すように、当該方法は、以下のようなステップを含むことができ、
ステップ401~405は、上記の実施例2のステップ301~305と同じである。
406では、問い合わせエンティティ情報に対応する候補エンティティ情報を取得し、候補エンティティと通信することで候補回答情報を取得する。
回答情報の取得がより柔軟かつ包括的であることは、ユーザのニーズを可能な限り満たすことを確保するためである。本実施例では、問い合わせエンティティ情報を取得する以外に、さらに、問い合わせエンティティ情報に対応する候補エンティティ情報を取得して、候補エンティティから候補回答情報の取得を試みる。
好ましい実施形態として、問い合わせエンティティ情報に対応する候補エンティティ情報を取得する時、ドメイン知識ベースから問い合わせエンティティと同じタイプに属するエンティティを取得し、次に、取得されたエンティティと問い合わせエンティティとの間の相関度に基づいて、取得されたエンティティから少なくとも一つを候補エンティティとして選択し、候補エンティティ情報を取得することができる。
新しいニーズ「安寧荘の列車の切符販売代理店は、列車の切符の代用領収書を印刷できますか」について、その中から問い合わせエンティティ「安寧荘の列車の切符販売代理店」、問い合わせ内容「列車の切符の代用領収書を印刷する」を抽出した後、地図分野の知識ベースから「安寧荘の列車の切符販売代理店」と同じ分野のエンティティを取得することができ、例えば、「首都体育館南路列車の切符販売代理店」、「清河鉄道駅」、「建材城西路列車の切符販売代理店」などである。地図分野では、同じタイプのエンティティとエンティティとの間の相関度は、空間距離に具現されることが多いため、取得された各エンティティと問い合わせエンティティとの間の空間距離を計算し、小さいものから大きいもの順次にその中から少なくとも一つを候補エンティティとして選択し、候補エンティティ情報を取得することができる。例えば、「清河鉄道駅」は「安寧荘の列車の切符販売代理店」に最も近いため、それを候補エンティティとし、地図分野の知識ベースから「清河鉄道駅」の電話を取得することができる。次に、電話で清河鉄道駅に列車の切符の代用領収書を印刷できるかどうかを問い合わせし、取得された返信メッセージを候補返信メッセージとする。
407では、問い合わせエンティティから取得された回答情報を使用してユーザに第1の音声応答を返し、上記の候補回答情報を使用してユーザに第3の音声応答を返す。
第1の音声応答と類似し、第3の応答音声は、予め設定されたテンプレートを使用して候補回答情報を組み合わせする方式で生成することもできる。生成された第1の音声応答と第3の音声応答は、1つずつ再生することができ、スプライス後に再生することもできる。
上記の例を続けて、電話で小營建材城列車の切符販売代理店に列車の切符の代用領収書を印刷できるかどうかを問い合わせし後、取得された候補返信メッセージが印刷できると仮定すると、ユーザに第1の音声応答と第2の音声応答「電話で確認し、安寧荘の列車の切符販売代理店は列車の切符の代用領収書を印刷できませんが、あなたから近くの清河鉄道駅では列車の切符の代用領収書を印刷できる」を返す。
当該実施例から分かるように、候補エンティティの拡張及び候補エンティティから候補回答情報を取得することによって、ユーザに返す音声応答がより柔軟かつ包括的になり、ユーザのニーズを可能な限り満たすことができる。
実施例4
図5は本開示の実施例4により提供される実現可能な方法のフローチャートである。図5に示すように、当該方法は、以下のようなステップを含むことができ、
ステップ501~505は上記の実施例2のステップ301~305と同じである。
506では、問い合わせエンティティから回答情報が取得されていないか、または、問い合わせエンティティから取得されたのが否定的な回答であるかどうかを判断し、そうである場合、507を実行し、そうでない場合、509を実行する。
問い合わせエンティティとの通信構築に成功せず、問い合わせエンティティとの通信中に問い合わせ内容に対応する回答情報が取得できなかったなどの場合が存在することができ、問い合わせエンティティから取得されたのが否定的な回答であることもでき、例えば、安寧荘の列車の切符販売代理店に列車の切符の代用領収書を印刷できるかどうかを問い合わせし、取得された回答は「できません」である。この場合、ユーザの実際のニーズを十分に満たすことができない可能性があり、すなわちユーザは列車の切符の代用領収書を印刷できる場所を探したいと望む。従って、後続のステップ507及び508を使用して候補エンティティから候補回答情報をさらに取得することができる。
しかし、問い合わせエンティティで肯定的な回答を取得した場合、ユーザの実際のニーズを既に満たしている可能性があるため、問い合わせエンティティから取得された回答情報を直接使用してユーザに第1の音声応答を返すことができる。
507では、問い合わせエンティティ情報に対応する候補エンティティ情報を取得し、候補エンティティと通信することで候補回答情報を取得する。
508では、問い合わせエンティティから取得された回答情報を使用してユーザに第1の音声応答を返し、上記の候補回答情報を使用してユーザに第3の応答音声を返す。
上記のステップ507及び508は、実施例3の406及び407と同じであり、ここで詳細に説明しない。
509では、問い合わせエンティティから取得された回答情報を使用してユーザに第1の音声応答を返す。
また、上記の実施例3及び実施例4では、予め設定された期間内に上記の回答情報と候補回答情報が取得されなかった場合、ユーザに予め設定された第4の音声応答を返す。いくつかの特殊な場合、問い合わせエンティティ及び候補エンティティからすべて回答情報が取得されなかった可能性があり、そうすると、ユーザが待つ時間が長すぎてユーザ体験に影響を与えるのを防ぐために、ユーザに第2の音声応答を返した後にタイミングを開始することができる。予め設定された期間が経過した後に上記の回答情報と候補回答情報が取得されなかった場合、例えば、「申し訳ありませんが、安寧荘の列車の切符販売代理店が代用領収書を印刷できるかどうかの情報が取得できませんでした、他の方法で取得してみてください」などの予め設定された音声応答をユーザに返す。
上記の実施例3及び実施例4では、ニーズ解析の結果を既知のニーズとして記録し、取得された回答メッセージ(問い合わせエンティティから取得された回答メッセージと候補エンティティから取得された候補回答メッセージを含む)を対応して記憶することができる。好ましい実施形態として、回答メッセージを記憶する場合、構造化の回答メッセージ組織形式を使用することができる。例えば、
エンティティ:安寧荘の列車の切符販売代理店
問い合わせ内容:列車の切符の代用領収書を印刷する
問い合わせ結果:できません
エンティティ:清河鉄道駅
問い合わせ内容:列車の切符の代用領収書を印刷する
問い合わせ結果:できません
以上は、本開示により提供される方法に対する詳細説明であり、以下は、実施例を組み合わせて本開示により提供される装置を詳細に説明する。
実施例5
図6は本開示の実施例5により提供される音声インタラクション装置の構造図である。当該装置は、サーバ側のアプリケーションに位置するか、またはサーバ側のアプリケーション内のプラグインまたはソフトウェア開発キット(Software Development Kit、SDK)などの機能ユニットに位置することもできるか、または、強い計算能力を有するコンピュータ端末に位置することもでき、本発明の実施例はこれについて特に限定しない。図6に示すように、当該装置は、音声処理ユニット01と、対話対策ユニット02と、自動問い合わせユニット03と、音声インタラクションユニット04を含むことができ、ニーズ記録ユニット05をさらに含むこともできる。その中、各構成ユニットの主な機能は以下のようであり、
音声インタラクションユニット04がユーザが入力した音声命令を受信した後、音声処理ユニット01は、ユーザが入力した音声命令に対して音声認識を行うために用いられる。
音声処理ユニット01がニーズ解析を行って未知のニーズを取得した場合、対話対策ユニット02は、ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得する。
ニーズ解析後に取得された未知のニーズ、すなわち新しいニーズについて、コア情報の抽出を行うことができる。コア情報は、少なくとも問い合わせエンティティ情報と問い合わせ内容を含む。抽出方式は、セマンティック理解の方式に基づいて実現することができる。さらに、ドメイン知識ベースから通信方式情報、位置情報などの問い合わせエンティティ情報を取得することができる。
自動問い合わせユニット03は、問い合わせエンティティと通信することで問い合わせ内容に対応する回答情報を取得するために用いられる。
具体的には、自動問い合わせユニット03は、問い合わせエンティティ情報に対応する通信方式に従って問い合わせエンティティと少なくとも1回のインタラクションを行って、問い合わせエンティティに問い合わせ内容を送信し、問い合わせエンティティから返される回答情報を取得することができる。
音声インタラクションユニット04は、回答情報を使用してユーザに第1の音声応答を返すために用いられる。
その中の一つの実現方式として、予め設定されたテンプレートに基づいて、上記の回答情報を使用して第1の応答テキストを生成し、第1の応答テキストを使用して音声合成または音声スプライスを行った後に第1の音声応答を取得することができる。
さらに、音声インタラクションユニット04は、さらに、音声処理ユニット04が未知のニーズを解析して取得した後、ユーザに第1の音声応答を返す前に、ユーザに第2の音声応答を返して回答情報をしばらくしてから提供することを報知するために用いられる。
ニーズ記録ユニット05は、ニーズ解析の結果を既知のニーズとして記録し、回答情報を対応して記憶するために用いられる。
音声処理ユニット01が既知のニーズを解析して取得した場合、音声インタラクションユニット04は既知のニーズに対応する回答情報を直接に使用してユーザに音声応答を返す。
好ましい実施形態として、対話対策ユニット02は、さらに、問い合わせエンティティ情報に対応する候補エンティティ情報を取得するために用いられる。
具体的には、対話対策ユニット02は、問い合わせエンティティが属するドメイン知識ベースから問い合わせエンティティと同じタイプに属するエンティティを取得し、取得されたエンティティと問い合わせエンティティとの間の相関度に基づいて、取得されたエンティティから少なくとも一つを候補エンティティとして選択し、候補エンティティ情報を取得することができる。
自動問い合わせユニット03は、さらに、候補エンティティと通信することで候補回答情報を取得するために用いられる。
好ましい実施形態として、問い合わせエンティティと通信することで問い合わせ内容に対応する回答情報が取得されなかった場合、または、問い合わせエンティティと通信することで取得された回答情報が否定的な回答である場合、自動問い合わせユニット03は、候補エンティティと通信することで候補回答情報を取得することができる。
音声インタラクションユニット04は、さらに、候補エンティティ情報と候補回答情報を使用して、ユーザに第3の応答音声を返すために用いられる。
第1の音声応答と類似し、第3の応答音声は、予め設定されたテンプレートを使用して候補回答情報を組み合わせする方式で生成することもできる。生成された第1の音声応答と第3の音声応答は、1つずつ再生することができ、スプライス後に再生することもできる。
好ましい実施形態として、音声インタラクションユニット04は、さらに、予め設定された期間内に、自動問い合わせユニット03が回答情報と候補回答情報が取得されなかった場合、ユーザに予め設定された第4の音声応答を返すために用いられる。
本開示の実施例によれば、本開示は、電子機器及び読み取り可能な記憶媒体をさらに提供する。
図7に示すように、本開示の実施例の音声インタラクション方法を実現するための電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータなどの様々な形式のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタル処理、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形式のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本開示の実現を制限することを意図したものではない。
図7に示すように、当該電子機器は、一つ又は複数のプロセッサ701と、メモリ702と、高速インターフェースと低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に基づいて他の方式で取り付けることができる。プロセッサは、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリに記憶されている命令を含む、電子機器内に実行される命令を処理することができる。他の実施方式では、必要であれば、複数のプロセッサ及び/又は複数のバスを、複数のメモリと複数のメモリとともに使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、部分的な必要な操作(例えば、サーバアレイ、ブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図7では、一つのプロセッサ701を例とする。
メモリ702は、本開示により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。その中、前記メモリには、少なくとも一つのプロセッサによって実行される命令を記憶して、前記少なくとも一つのプロセッサが本開示により提供される音声インタラクション方法を実行することができるようにする。本開示の非一時的なコンピュータ読み取り可能な記憶媒体は、コンピュータが本開示により提供される音声インタラクション方法を実行するためのコンピュータ命令を記憶する。
メモリ702は、非一時的なコンピュータ読み取り可能な記憶媒体として、本開示の実施例における音声インタラクション方法に対応するプログラム命令/モジュールように、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶するために用いられる。プロセッサ701は、メモリ702に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アプリケーション及びデータ処理を実行し、すなわち上記の方法の実施例における音声インタラクション方法を実現する。
メモリ702は、ストレージプログラム領域とストレージデータ領域とを含むことができ、その中、ストレージプログラム領域は、オペレーティングシステム、少なくとも一つの機能に必要なアプリケーションプログラムを記憶することができ、ストレージデータ領域は、電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ702は、高速ランダム存取メモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも一つのディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例では、メモリ702は、プロセッサ701に対して遠隔に設置されたメモリを含むことができ、これらの遠隔メモリは、ネットワークを介して当該電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定しない。
音声インタラクション方法の電子機器は、入力装置703と出力装置704とをさらに含むことができる。プロセッサ701、メモリ702、入力装置703、及び出力装置704は、バス又は他の方式を介して接続することができ、図7では、バスを介して接続することを例とする。
入力装置703は、入力された数字又は文字情報を受信することができ、及び当該電子機器のユーザ設置及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、指示杆、一つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置704は、ディスプレイデバイス、補助照明デバイス(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、LCD(液晶ディスプレイ)、LED(発光ダイオード)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定しない。いくつかの実施方式では、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施方式は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施方式は、一つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該一つ又は複数のコンピュータプログラムは、少なくとも一つのプログラマブルプロセッサを含むプログラム可能なシステムで実行及び/又は解釈されることができ、当該プログラマブルプロセッサは、特定用途向け又は汎用プログラマブルプロセッサであってもよく、ストレージシステム、少なくとも一つの入力装置、及び少なくとも一つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも一つの入力装置、及び当該少なくとも一つの出力装置に伝送することができる。
これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施することを含む。本明細書に使用されるように、用語「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するために使用される任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、PLD(プログラマブルロジックデバイス))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。用語「機械読み取り可能な信号」は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、コンピュータ上でここで説明されているシステム及び技術を実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置は、ユーザとのインタラクションを提供するために用いられることもでき、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドコンポーネントを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアコンポーネントを含むコンピューティングシステム(例えば、アプリケーションサーバー)、又はフロントエンドコンポーネントを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータ、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施方式とインタラクションする)、又はこのようなバックエンドコンポーネントと、ミドルウェアコンポーネントと、フロントエンドコンポーネントの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続されることができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットと、ブロックチェーンネットワークと、を含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、互いにクライアント-サーバ関係を有するコンピュータプログラムによってクライアントとサーバとの関係が生成される。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができることを理解されたい。例えば、本開示に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本開示で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記の具体的な実施方式は、本開示に対する保護範囲の制限を構成するものではない。当業者は、設計要求と他の要因に基づいて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。任意の本開示の精神と原則内で行われる修正、同等の置換、及び改善などは、いずれも本開示の保護範囲内に含まれなければならない。

Claims (19)

  1. 音声インタラクション方法であって、
    ユーザが入力した音声命令に対して音声認識とニーズ解析を行うステップと、
    解析された未知のニーズに応答して、前記ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得し、前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得するステップと、
    前記回答情報を使用して前記ユーザに第1の音声応答を返すステップと、を含む、
    音声インタラクション方法。
  2. ニーズ解析を行って前記未知のニーズを取得したステップの後、前記ニーズ解析の結果を使用して前記ユーザに第1の音声応答を返すステップの前に、
    前記ユーザに第2の音声応答を返して、回答情報をしばらくしてから提供することを報知するステップをさらに含む、
    請求項1に記載の音声インタラクション方法。
  3. 前記問い合わせ内容に対応する回答情報を取得した後、
    前記ニーズ解析の結果を既知のニーズとして記録し、前記回答情報を対応して記憶するステップをさらに含む、
    請求項1に記載の音声インタラクション方法。
  4. 前記問い合わせエンティティ情報に対応する候補エンティティ情報を取得するステップと、
    候補エンティティと通信することで候補回答情報を取得するステップと、
    前記候補エンティティ情報と前記候補回答情報を使用して、前記ユーザに第3の応答音声を返すステップと、をさらに含む、
    請求項1に記載の音声インタラクション方法。
  5. 前記問い合わせエンティティ情報に対応する候補エンティティ情報を取得するステップは、
    前記問い合わせエンティティが属するドメイン知識ベースから前記問い合わせエンティティと同じタイプに属するエンティティを取得するステップと、
    取得されたエンティティと前記問い合わせエンティティとの間の相関度に基づいて、前記取得されたエンティティから少なくとも一つを候補エンティティとして選択し、候補エンティティ情報を取得するステップと、を含む、
    請求項4に記載の音声インタラクション方法。
  6. 前記候補エンティティと通信することで候補回答情報を取得するステップは、
    前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報が取得されなかった場合、または、前記問い合わせエンティティと通信することで取得された前記回答情報が否定的な回答である場合、前記候補エンティティと通信することで候補回答情報を取得するステップを含む、
    請求項4に記載の音声インタラクション方法。
  7. 前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得するステップは、
    前記問い合わせエンティティ情報に対応する通信方式に従って前記問い合わせエンティティと少なくとも1回のインタラクションを行って、前記問い合わせエンティティに前記問い合わせ内容を送信し、前記問い合わせエンティティから返される回答情報を取得するステップを含む、
    請求項1に記載の音声インタラクション方法。
  8. 予め設定された期間内に前記回答情報と前記候補回答情報が取得されなかった場合、前記ユーザに予め設定された第4の音声応答を返すステップをさらに含む、
    請求項4に記載の音声インタラクション方法。
  9. 音声インタラクション装置であって、
    ユーザが入力した音声命令に対して音声認識とニーズ解析を行うための音声処理ユニットと、
    前記音声処理ユニットによって解析された未知のニーズに応答して、前記ニーズ解析の結果を使用して問い合わせエンティティ情報と問い合わせ内容を取得するための対話対策ユニットと、
    前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報を取得するための自動問い合わせユニットと、
    前記回答情報を使用して前記ユーザに第1の音声応答を返すための音声インタラクションユニットと、を含む、
    音声インタラクション装置。
  10. 前記音声インタラクションユニットは、さらに、前記音声処理ユニットがニーズ解析を行って未知のニーズを取得したことの後、前記ユーザに第1の音声応答を返すことの前に、前記ユーザに第2の音声応答を返して回答情報をしばらくしてから提供することを報知するために用いられる、
    請求項9に記載の音声インタラクション装置。
  11. 前記音声インタラクション装置は、
    前記ニーズ解析の結果を既知のニーズとして記録し、前記回答情報を対応して記憶するためのニーズ記録ユニットをさらに含む、
    請求項9に記載の音声インタラクション装置。
  12. 前記対話対策ユニットは、さらに、前記問い合わせエンティティ情報に対応する候補エンティティ情報を取得するために用いられ、
    前記自動問い合わせユニットは、さらに、候補エンティティと通信することで候補回答情報を取得するために用いられ、
    前記音声インタラクションユニットは、さらに、前記候補エンティティ情報と前記候補回答情報を使用して、前記ユーザに第3の応答音声を返すために用いられる、
    請求項9に記載の音声インタラクション装置。
  13. 前記対話対策ユニットは、具体的には、前記問い合わせエンティティが属するドメイン知識ベースから前記問い合わせエンティティと同じタイプに属するエンティティを取得し、取得されたエンティティと前記問い合わせエンティティとの間の相関度に基づいて、前記取得されたエンティティから少なくとも一つを候補エンティティとして選択し、候補エンティティ情報を取得するために用いられる、
    請求項12に記載の音声インタラクション装置。
  14. 前記自動問い合わせユニットは、具体的には、前記問い合わせエンティティと通信することで前記問い合わせ内容に対応する回答情報が取得されなかった場合、または、前記問い合わせエンティティと通信することで取得された前記回答情報が否定的な回答である場合、前記候補エンティティと通信することで候補回答情報を取得するために用いられる、
    請求項12に記載の音声インタラクション装置。
  15. 前記自動問い合わせユニットは、具体的には、前記問い合わせエンティティ情報に対応する通信方式に従って前記問い合わせエンティティと少なくとも1回のインタラクションを行って、前記問い合わせエンティティに前記問い合わせ内容を送信し、前記問い合わせエンティティから返される回答情報を取得するために用いられる、
    請求項9に記載の音声インタラクション装置。
  16. 前記音声インタラクションユニットは、さらに、予め設定された期間内に前記自動問い合わせユニットが前記回答情報と前記候補回答情報が取得されなかった場合、前記ユーザに予め設定された第4の音声応答を返すために用いられる、
    請求項12に記載の音声インタラクション装置。
  17. 電子機器であって、
    少なくとも一つのプロセッサと、
    前記少なくとも一つのプロセッサに通信接続されたメモリと、を含み、
    前記メモリに前記少なくとも一つのプロセッサにより実行可能な命令が記憶されており、前記命令が前記少なくとも一つのプロセッサにより実行されると、前記少なくとも一つのプロセッサが請求項1~8のいずれかの一つに記載の音声インタラクション方法を実行する、
    電子機器。
  18. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~8のいずれかの一つに記載の音声インタラクション方法を実行させる、
    コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータに請求項1~8のいずれかの一つに記載の音声インタラクション方法を実行させる、コンピュータプログラム。
JP2021576945A 2020-11-20 2021-06-02 音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体 Pending JP2023505917A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011307586.8 2020-11-20
CN202011307586.8A CN112382290B (zh) 2020-11-20 2020-11-20 一种语音交互方法、装置、设备和计算机存储介质
PCT/CN2021/097972 WO2022105188A1 (zh) 2020-11-20 2021-06-02 一种语音交互方法、装置、设备和计算机存储介质

Publications (1)

Publication Number Publication Date
JP2023505917A true JP2023505917A (ja) 2023-02-14

Family

ID=74585282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576945A Pending JP2023505917A (ja) 2020-11-20 2021-06-02 音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体

Country Status (6)

Country Link
US (1) US20230290347A1 (ja)
EP (1) EP4027335A4 (ja)
JP (1) JP2023505917A (ja)
KR (1) KR20220071152A (ja)
CN (1) CN112382290B (ja)
WO (1) WO2022105188A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112382290B (zh) * 2020-11-20 2023-04-07 北京百度网讯科技有限公司 一种语音交互方法、装置、设备和计算机存储介质
CN114360517B (zh) * 2021-12-17 2023-04-18 天翼爱音乐文化科技有限公司 一种复杂环境下的音频处理方法、装置及存储介质
CN114999204B (zh) * 2022-07-29 2022-11-08 北京百度网讯科技有限公司 导航信息处理方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195423A (ja) * 2000-01-17 2001-07-19 Omron Corp 情報検索システム
JP2008090545A (ja) * 2006-09-29 2008-04-17 Toshiba Corp 音声対話装置および音声対話方法
JP2014191030A (ja) * 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識端末およびコンピュータ端末を用いる音声認識方法
WO2019138477A1 (ja) * 2018-01-10 2019-07-18 株式会社ウフル スマートスピーカー、スマートスピーカーの制御方法、及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US20110252011A1 (en) * 2010-04-08 2011-10-13 Microsoft Corporation Integrating a Search Service with a Social Network Resource
US20140236570A1 (en) * 2013-02-18 2014-08-21 Microsoft Corporation Exploiting the semantic web for unsupervised spoken language understanding
US9740769B2 (en) * 2014-07-17 2017-08-22 International Business Machines Corporation Interpreting and distinguishing lack of an answer in a question answering system
CN105094315B (zh) * 2015-06-25 2018-03-06 百度在线网络技术(北京)有限公司 基于人工智能的人机智能聊天的方法和装置
US10599644B2 (en) * 2016-09-14 2020-03-24 International Business Machines Corporation System and method for managing artificial conversational entities enhanced by social knowledge
EP3642835A4 (en) * 2017-08-03 2021-01-06 Telepathy Labs, Inc. PROACTIVE, INTELLIGENT AND OMNICANAL VIRTUAL AGENT
CN108847229A (zh) * 2018-05-23 2018-11-20 上海爱优威软件开发有限公司 一种基于语音助手的信息交互方法及终端
US11379529B2 (en) * 2019-09-09 2022-07-05 Microsoft Technology Licensing, Llc Composing rich content messages
CN111341309A (zh) * 2020-02-18 2020-06-26 百度在线网络技术(北京)有限公司 一种语音交互方法、装置、设备和计算机存储介质
CN111428483B (zh) * 2020-03-31 2022-05-24 华为技术有限公司 语音交互方法、装置和终端设备
JP7094325B2 (ja) * 2020-05-29 2022-07-01 株式会社日立製作所 製造管理支援システム及び方法
CN112382290B (zh) * 2020-11-20 2023-04-07 北京百度网讯科技有限公司 一种语音交互方法、装置、设备和计算机存储介质
US11650812B2 (en) * 2020-12-11 2023-05-16 International Business Machines Corporation Asset identification for collaborative projects in software development
US11811585B2 (en) * 2021-03-23 2023-11-07 International Business Machines Corporation Measuring incident management process efficiency metrics utilizing real-time conversation analysis

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001195423A (ja) * 2000-01-17 2001-07-19 Omron Corp 情報検索システム
JP2008090545A (ja) * 2006-09-29 2008-04-17 Toshiba Corp 音声対話装置および音声対話方法
JP2014191030A (ja) * 2013-03-26 2014-10-06 Fuji Soft Inc 音声認識端末およびコンピュータ端末を用いる音声認識方法
WO2019138477A1 (ja) * 2018-01-10 2019-07-18 株式会社ウフル スマートスピーカー、スマートスピーカーの制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2022105188A1 (zh) 2022-05-27
KR20220071152A (ko) 2022-05-31
CN112382290B (zh) 2023-04-07
EP4027335A4 (en) 2022-11-16
US20230290347A1 (en) 2023-09-14
CN112382290A (zh) 2021-02-19
EP4027335A1 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
JP6647351B2 (ja) 候補応答情報を生成する方法及び装置
JP2023505917A (ja) 音声インタラクション方法、装置、機器、及びコンピュータ記憶媒体
CN105955703B (zh) 依赖于状态的查询响应
RU2637874C2 (ru) Генерирование диалоговых рекомендаций для чатовых информационных систем
CN103080927B (zh) 使用搜索结果的自动路由
WO2019018061A1 (en) AUTOMATIC INTEGRATION OF CAPTURE AND IMAGE RECOGNITION IN VOICE INTERROGATION TO UNDERSTAND INTENT
US20090055186A1 (en) Method to voice id tag content to ease reading for visually impaired
CN109325091B (zh) 兴趣点属性信息的更新方法、装置、设备及介质
CN111666380A (zh) 一种智能呼叫方法、装置、设备和介质
CN110381221B (zh) 呼叫处理方法、装置、系统、设备和计算机存储介质
CN102016502A (zh) 基于场境的语音识别语法选择
CN108768824B (zh) 信息处理方法及装置
CN104866275B (zh) 一种用于获取图像信息的方法和装置
CN114787814A (zh) 指代解析
CN113094143B (zh) 跨应用消息发送方法、装置和电子设备、可读存储介质
JP2021196599A (ja) 情報を出力するための方法および装置
CN113826089A (zh) 对聊天机器人中的自然理解系统的具有到期指标的上下文反馈
KR101950387B1 (ko) 학습 데이터 중 식별 가능하지만 학습 가능성이 없는 데이터의 레이블화를 통한, 대화형 ai 에이전트 시스템을 위한 지식베이스 모델의 구축 또는 갱신 방법, 컴퓨터 장치, 및 컴퓨터 판독 가능 기록 매체
CN112259090A (zh) 基于语音交互的业务办理方法、装置和电子设备
CN110633357A (zh) 语音交互方法、装置、设备和介质
US11966562B2 (en) Generating natural languages interface from graphic user interfaces
CN112825256A (zh) 录制语音包功能的引导方法、装置、设备和计算机存储介质
CN109981446A (zh) 信息生成方法、电子设备和计算机可读介质
CN111599341B (zh) 用于生成语音的方法和装置
CN114022300A (zh) 社交动态信息的发布方法、装置、存储介质和电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230919