JP2020004382A - 音声対話方法及び装置 - Google Patents

音声対話方法及び装置 Download PDF

Info

Publication number
JP2020004382A
JP2020004382A JP2019048952A JP2019048952A JP2020004382A JP 2020004382 A JP2020004382 A JP 2020004382A JP 2019048952 A JP2019048952 A JP 2019048952A JP 2019048952 A JP2019048952 A JP 2019048952A JP 2020004382 A JP2020004382 A JP 2020004382A
Authority
JP
Japan
Prior art keywords
sentence
question
vector
sentence vector
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019048952A
Other languages
English (en)
Other versions
JP6677419B2 (ja
Inventor
ル、ヨンシュアイ
Yongshuai Lu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020004382A publication Critical patent/JP2020004382A/ja
Application granted granted Critical
Publication of JP6677419B2 publication Critical patent/JP6677419B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】質問文と関連性がある基礎回答をユーザに返送することができ、ユーザの体験を向上させる音声対話方法及び装置を提供する。【解決手段】現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップと、NOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するステップと、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップと、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するステップと、を含む。【選択図】図2

Description

本発明の実施例は、音声対話技術の分野に関し、特に音声対話方法及び装置に関する。
人工知能技術の継続的な進歩に伴い、人間と機械との音声対話も大きな進歩を遂げており、各種の音声アシスタント及び人間と機械との対話装置がますます多くのユーザに好まれている。
既存の音声対話プロセスにおいて、ユーザが機械に質問文(query)を入力した後、機械は、コーパス内に質問文と一致する問答結果を検索し、そして問答結果をユーザにフィードバックする。しかし、コーパスにおける問答対の記憶数が限られているため、ユーザの質問文に対して対応する問答結果を得ることができないので、機械は、いわゆる「基礎話術」を使用して返送する必要がある。そのうち、「基礎話術」とは、基礎話術集を設定し、基礎話術集に少量の固定回答文が記憶され、基礎話術集から回答文をランダムに選択して回答できるものである。例えば、基礎話術集は、「我不理解」、「我不明白」、
[文1]
Figure 2020004382

[文2]
Figure 2020004382
等を含むことができる。
しかし、基礎回答が基礎話術集から回答文をランダムに選択して回答するものであるため、回答は、ユーザの質問文と関連せず、ユーザの体験が悪くなる。
本発明の実施例は、音声対話方法及び装置を提供することにより、回答内容がユーザの質問文と関連せず、ユーザの体験が悪いという問題を克服する。
第1の態様では、本発明の実施例に提供される音声対話方法は、
現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップと、
NOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するステップと、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップと、
基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するステップと、を含む。
可能な設計では、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップは、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに対して加算処理を行い、第3の文ベクトルを取得すること、を含む。
可能な設計では、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップの前、方法は、
第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得するステップと、
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するステップと、をさらに含む。
可能な設計では、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得するステップは、
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得することと、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとすることと、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得することと、を含む。
可能な設計では、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得するステップは、
基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの余弦類似度を取得すること、を含む。
可能な設計では、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得するステップの前、
ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得するステップと、
第1の問答対に基づいて基礎コーパスを取得するステップと、をさらに含む。
可能な設計では、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップの前、方法は、
問答コーパスに第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるステップ、をさらに含む。
可能な設計では、第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、方法は、
第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送するステップ、をさらに含む。
第2の態様では、本発明の実施例に提供される音声対話装置は、
現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するための判断モジュールと、
判断モジュールの判断結果がNOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するための文取得モジュールと、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するための処理モジュールと、
基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するための結果取得モジュールと、を含む。
可能な設計では、処理モジュールは具体的には、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに対して加算処理を行い、第3の文ベクトルを取得するために用いられる。
可能な設計では、ベクトル取得モジュールをさらに含み、
ベクトル取得モジュールはさらに、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前、第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得し、
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するために用いられる。
可能な設計では、結果取得モジュールは具体的には、
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得し、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとし、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得するために用いられる。
可能な設計では、結果取得モジュールはさらに具体的には、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの余弦類似度を取得するために用いられる。
可能な設計では、コーパス取得モジュールをさらに含み、
コーパス取得モジュールは、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得する前、ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得し、
第1の問答対に基づいて基礎コーパスを取得するために用いられる。
可能な設計では、判断モジュールはさらに、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前、問答コーパスに第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるために用いられる。
可能な設計では、結果取得モジュールはさらに、第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送するために用いられる。
第3の態様では、本発明の実施例に提供される音声対話装置は、少なくとも1つのプロセッサ及びメモリを含み、
メモリには、コンピュータの実行命令が記憶され、
少なくとも1つのプロセッサが上述した第1の態様及び第1の態様の各種の可能な設計に記載の音声対話方法を実行するように、少なくとも1つのプロセッサは、メモリに記憶されたコンピュータの実行命令を実行する。
第4の態様では、本発明の実施例に提供されるコンピュータ可読記憶媒体は、コンピュータ可読記憶媒体には、コンピュータの実行命令が記憶され、プロセッサがコンピュータの実行命令を実行すると、上述した第1の態様及び第1の態様の各種の可能な設計に記載の音声対話方法を実行することを特徴とする。
本実施例が提供する音声対話方法及び装置は、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断し、NOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得し、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する。本実施例は、1つ前の質問文と組み合せることによって文ベクトルを取得し、ユーザの対話シーンを十分に考慮することにより、文脈情報を考慮した問答結果を取得し、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返し、文ベクトルの類似度によってマッチングされた問答結果を取得し、計算プロセスがシンプルであり、問答結果を迅速かつ正確に取得することができる。
本発明の実施例又は従来技術における技術的解決手段をより明確に説明するために、以下は実施例又は従来技術の説明に使用することが必要な図面について簡単な説明を行い、明らかなように、以下の記載における図面は、本発明のいくつかの実施例に過ぎず、当業者である場合、創造的な努力をしなくても、これらの図面に基づいて他の図面に想到しうる。
本発明の実施例に係る音声対話の満足度の決定システムの概略アーキテクチャ図である。 本発明の実施例に係る音声対話方法の第1の概略フローチャートである。 本発明の実施例に係る音声対話方法の第2の概略フローチャートである。 本発明の実施例に係る音声対話装置の第1の概略構成図である。 本発明の実施例に係る音声対話装置の第2の概略構成図である。 本発明の実施例に係る音声対話装置のハードウェアの概略構成図である。
本発明の実施例の目的、技術的解決手段及び利点をより明確にするため、以下、本発明の実施例における図面を参照し、本発明の実施例における技術的解決手段について明確で、完全な記載を行い、明らかなように、記載される実施例は、本発明の実施例の一部に過ぎず、すべての実施例ではない。本発明における実施例に基づき、当業者が創造的な努力をせずに得るすべての他の実施例は、本発明の保護範囲に属する。
図1は、本発明の実施例に係る音声対話の満足度の決定システムの概略アーキテクチャ図である。図1に示すように、本実施例に係るシステムは、端末101及びサーバ102を含む。そのうち、端末101は、子供用ストーリー機、携帯電話、タブレット、車載端末等であってもよい。本実施例は、端末101の実現方式について特に限定せず、端末101は、ユーザと音声対話を行うことができるものであればよい。
音声対話(Speech Interaction)は、音声認識、音声合成、自然言語理解等の技術に基づき、複数の実際の応用シーンで、端末に
[文3]
Figure 2020004382
式の知能的な人間と機械との対話体験を提供する。スマート問答、スマート再生、スマート検索等のシーンを含む複数の応用シーンに適用する。
ユーザは、端末101に質問文を音声で入力し、端末101は、質問文に応じて問答結果を取得してユーザにフィードバックすることができる。具体的には、端末101は、自身が記憶するコーパスに基づき、ローカルで問答結果を取得してもよく、又は質問文をサーバ102に送信し、サーバ102は、問答結果を取得してから端末101にフィードバックしてもよい。本実施例は、具体的な実現方式について特に限定せず、端末101がローカルで問答結果を取得してもよいし、サーバ102が質問文に応じて問答結果を取得してもよい。
しかし、一部のシーンで、端末101が対応する問答結果を取得することができないため、ユーザに基礎回答を行うが、基礎回答がユーザの質問文と関連せず、ユーザの体験が悪くなる。技術的課題を解決するために、本実施例は、音声対話方法を提供し、対話方法は、文ベクトルの類似度に基づいて問答結果を取得することにより、問答結果と質問文との類似度を向上させ、ユーザの体験を向上させる。以下、具体的な実施例を用いて詳細に説明する。
図2は、本発明の実施例に係る音声対話方法の第1の概略フローチャートであり、本実施例の実行主体は、図1に示す実施例における端末であってもよいし、図1に示す実施例のサーバであってもよく、本実施例は、それについて特に限定しない。図2に示すように、方法はS201〜S205を含む。
S201、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する。NOである場合、S202を実行し、YESである場合、S205を実行する。
S202、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得する。
S203、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する。
ユーザが音声入力を行った後、すなわちユーザが入力した第1の質問文を取得した後、第1の質問文が今回の会話の1番目の文であるかどうかを判断する。当業者であればわかるように、第1の質問文は、音声であってもよいし、ユーザが入力したテキストであってもよく、本実施例は、特に限定しない。
ユーザが入力した第1の質問文が会話における1番目の文ではなく、今回の会話における2番目の文又は以降の文である場合、複数回のマッチングの出力アルゴリズムを採用する。具体的には、1回の会話の時間を予め設定された時間帯とすることができ、例えば、10分間の時間帯を基準とし、10分間以内にユーザが他の質問文を述べたことがある場合、現在の第1の質問文に対して複数回のマッチングの方式を採用して基礎話術を行う。
例えば、ユーザの1番目の質問文が「晩上好」であり、回答が
[文4]
Figure 2020004382
であり、そしてユーザが「今天下雪了」と言った。次に、最後のこの文の「今天下雪了」に対して以下の複数回のマッチングのアルゴリズムを採用して基礎話術の出力を行う。
複数回のマッチングにおいて、第1の質問文を受信した前に受信された最後の質問文(第1の質問文の1つ前の質問文)である第2の質問文をさらに取得する必要がある。基礎コーパスとマッチングする時、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する。
具体的には、第1の文ベクトル及び第2の文ベクトルを様々な方式で取得することができ、ここで、本実施例は、具体的な実施例を例として詳細に説明し、本実施例は、他の実現方式について特に限定しない。
具体的な実現過程において、第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得する。複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得する。
ただし、いわゆる単語ベクトルは、単語のベクトル表現であり、すなわち1つの単語が1つのベクトルに対応することができる。類似の単語について、その対応する単語ベクトルも類似している。例えば「下雨」の単語ベクトルは、(0.5、0.5)であり、「下雪」の単語ベクトルは、(0.6、0.6)である。本実施例において、単語ベクトルを二次元の単語ベクトルとして例を挙げて計算するが、これは、発明全体の流れを説明するためのものであり、実際のプロジェクトにおける単語ベクトルは、例えば1024次元である多次元の単語ベクトルであってもよく、その計算プロセス及びデータ量がより複雑であるが、全体構想は同じである。
単語ベクトルの計算は、統計的言語モデル、ニューラルネットワーク確率的言語モデル、深層学習モデル等の多くの成熟したアルゴリズムを含み、大量のテキストコーパスがあれば、訓練によって適切な単語ベクトルを取得することできる。本発明は、単語ベクトルの構築方法について限定しない。
第1の質問文及び第2の質問文がいずれも単語ではなく、文であるため、単語ベクトルに基づいて文ベクトルを取得しようとする場合、第1の質問文及び第2の質問文に対して単語分割処理を行う必要がある。例えば、ユーザの入力が「今天下雪了」である場合、単語分割は、「今天」、「下雪」、「了」である。以上の単語ベクトルに基づき、「今天」の単語ベクトルが(0.5、0)、「下雪」の単語ベクトルが(0.6、0.6)、「了」の単語ベクトルが(0、0.1)であることがわかる。そして、ユーザの入力の「今天下雪了」の文ベクトルは、(0.5+0.6+0、0+0.6+0.1)、すなわち(1.1、0.7)である。
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルを取得した後、第1の文ベクトル及び第2の文ベクトルに基づいて第3の文ベクトルを取得する。具体的には、第1の文ベクトル及び第2の文ベクトルに対して和を求めるか又は加重平均することにより、第3の文ベクトルを取得することができる。
例えば、ユーザの質問文が「今天下雪了」(1つ前の文は「晩上好」である)であり、すなわち第1の質問文は、「今天下雪了」であり、第2の質問文は、「晩上好」である。
上記からわかるように、「今天下雪了」に対応する第1の文ベクトルは、(1.1、0.7)である。第2の質問文「晩上好」について、「晩上」の単語ベクトルが(−0.7、1)、「好」の単語ベクトルが(−0.1、0.2)である場合、「晩上好」に対応する第2の文ベクトルは、(−0.8、1.2)であり、「今天下雪了」の文ベクトル(1.1、0.7)と加算し、今回の新しい文ベクトル(0.3、1.9)、すなわち第3の文ベクトルを取得する。
S204、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送する。
本実施例において、基礎コーパスには、第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる。そのうち、第1の問答対は、質問文及び対応する問答結果を含み、各質問文について、いずれも計算によって質問文の第5の文ベクトルを取得する。
具体的には、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得し、第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとする。基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得する。
例えば、基礎コーパスに質問文「今天下雨了」、「今天晩上下雨了」が含まれると想定する。
ただし、「今天/下雨/了」の文ベクトルは、(0.5+0.5+0、0+0.5+0.1)、すなわち(1、0.6)である。「今天/晩上/下雨/了」に対応する文ベクトルは、(0.5−0.7+0.5+0、0+1+0.5+0.1)=(0.3、1.6)である。
上記2つの文ベクトルと第3の文ベクトルとの類似度を計算する。ただし、類似度を計算する方式は、様々であり、ここで、余弦類似度を例として説明する。
すなわち、
[数1]
Figure 2020004382
であり、ここで、
[数2]
Figure 2020004382
は、余弦類似度であり、a及びbは、それぞれ文ベクトルである。
第3の文ベクトルが「晩上好+今天下雪了」によって取得された文ベクトルであることを例として詳細に説明する。
「晩上好+今天下雪了」(a(0.3、1.9)に設定する)と「今天下雨了」(b(1、0.6)に設定する)との余弦類似度は、
[数3]
Figure 2020004382
である。
「晩上好+今天下雪了」(a(0.3、1.9)に設定する)と「今天/晩上/下雨/了」(c(0.3、1.6)に設定する)との余弦類似度は、
[数4]
Figure 2020004382
である。
上記からわかるように、第3の文ベクトルと「今天/晩上/下雨/了」の文ベクトルとの余弦類似度は、より高く、文の文ベクトルは、第4の文ベクトルである。
複数回において、ユーザのこの文の「今天下雪了」(1つ前の文は「晩上好」である)にマッチングされるのは、基礎コーパスにおける「今天晩上下雨了」であり、そして「今天晩上下雨了」に対応する問答結果の
[文5]
Figure 2020004382
を回答する。このように、上記の情報の一部をある程度使用することができ、回答全体をよりスマートで使いやすいものにする。
S205、第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送する。
第1の質問文が予め設定された時間帯内の最初の質問文である場合、第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第2の問答結果を直接取得すればよい。
本実施例が提供する音声対話方法は、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断し、NOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得し、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する。本実施例は、1つ前の質問文と組み合せることによって文ベクトルを取得し、ユーザの対話シーンを十分に考慮することにより、文脈情報を考慮した問答結果を取得し、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返し、文ベクトルの類似度によってマッチングされた問答結果を取得し、計算プロセスがシンプルであり、問答結果を迅速かつ正確に取得することができる。
図3は、本発明の実施例に係る音声対話方法の第2の概略フローチャートであり、本実施例は、図2の実施例に加えて、本実施例の具体的な実現過程について詳細に説明する。図3に示すように、方法はS301〜S309を含む。
S301、ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得する。
S302、第1の問答対に基づき、第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスを取得する。
具体的な実現過程において、ネットワークからチャット閉鎖集を取得することができ、ただし、チャット閉鎖集とは、数が限られたチャットの対話内容である。チャットの対話内容から第1の問答対、すなわち質問文及び問答結果が含まれる問答対を抽出し、かつ各質問文の文ベクトルを計算し、基礎コーパスを取得することができる。
S303、問答コーパスに第1の質問文に対応する第2の問答対が存在するかどうかを判断し、NOである場合、S304を実行し、YESである場合、S309を実行する。
S304、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるどうかを判断し、NOである場合、S305を実行し、YESである場合、S308を実行する。
第1の質問文を取得した後、まず問答コーパスから第1の質問文に対応する第2の問答対を取得することができ、具体的な取得方式は、語義マッチング等の方式であってもよく、本実施例は、それについて特に限定せず、第2の問答対が存在すれば、第2の問答対に基づいて第1の質問文に対応する第3の問答結果を直接決定し、かつ第3の問答結果を返送する。
第2の問答対が存在しなければ、S305を実行する。ここで、S305からS308は、図2の実施例におけるS202からS205と類似しており、本実施例は、それについて特に限定しない。
S305、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得する。
S306、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する。
S307、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送する。
S308、第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送する。
S309、第2の問答対に基づいて第1の質問文に対応する第3の問答結果を決定し、かつ第3の問答結果を返送する。
本実施例が提供する音声対話方法は、基礎コーパスを予め確立し、かつ問答コーパスにおいて対応する問答結果がない時、基礎コーパスから文ベクトルの類似度によってマッチングされた問答結果を取得することにより、計算プロセスがシンプルであり、問答結果を迅速かつ正確に取得することができる。
図4は、本発明の実施例に係る音声対話装置の第1の概略構成図である。図4に示すように、音声対話装置40は、判断モジュール401、文取得モジュール402、処理モジュール403及び結果取得モジュール404を含む。
判断モジュール401は、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するために用いられる。
文取得モジュール402は、判断モジュール401の判断結果がNOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するために用いられる。
処理モジュール403は、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するために用いられる。
結果取得モジュール404は、基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するために用いられる。
本実施例が提供する装置は、上記方法例の技術的解決手段を実行するために使用されてもよく、その実現原理及び技術的効果が類似しているため、本実施例は、それについて繰り返し説明しない。
図5は、本発明の実施例に係る音声対話装置の第2の概略構成図である。図5に示すように、本実施例は、図4の実施例に加えて、ベクトル取得モジュール405及びコーパス取得モジュール406をさらに含む。
可能な設計では、処理モジュール403は具体的には、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに対して加算処理を行い、第3の文ベクトルを取得するために用いられる。
可能な設計では、ベクトル取得モジュール405はさらに、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前、第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得し、
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するために用いられる。
可能な設計では、結果取得モジュール404は具体的には、
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得し、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとし、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得するために用いられる。
可能な設計では、結果取得モジュール404はさらに具体的には、
基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの余弦類似度を取得するために用いられる。
可能な設計では、コーパス取得モジュール406は、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得する前、ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得し、
第1の問答対に基づいて基礎コーパスを取得するために用いられる。
可能な設計では、判断モジュール401はさらに、現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前、問答コーパスに第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるために用いられる。
可能な設計では、結果取得モジュール404はさらに、第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送するために用いられる。
本実施例が提供する装置は、上記方法例の技術的解決手段を実行するために使用されてもよく、その実現原理及び技術的効果が類似しているため、本実施例は、それについて繰り返し説明しない。
図6は、本発明の実施例に係る音声対話装置のハードウェアの概略構成図である。図6に示すように、本実施例の音声対話装置60は、プロセッサ601及びメモリ602を含む。そのうち、メモリ602は、コンピュータの実行命令を記憶するために用いられる。プロセッサ601は、メモリに記憶されたコンピュータの実行命令を実行することにより、上記実施例において音声対話装置が実行する各ステップを実現するために用いられる。具体的には、方法例における関連説明を参照することができる。
選択できるように、メモリ602は、独立したものであってもよいし、プロセッサと一体化されるものであってもよい。
メモリ602が独立して設定される時、音声対話装置は、メモリ1702とプロセッサ1701を接続するためのバス1703をさらに含む。
本発明の実施例は、さらにコンピュータ可読記憶媒体を提供し、コンピュータ可読記憶媒体には、コンピュータの実行命令が記憶され、プロセッサがコンピュータの実行命令を実行すると、上記のような音声対話方法を実現する。
本発明が提供するいくつかの実施例において、開示される装置及び方法は、他の方式によって実現することができると理解されるべきである。例えば、以上で説明した装置の実施例は、例示的なものに過ぎず、例えば、モジュールの分割は、論理的機能の分割に過ぎず、実際に実現する時に他の分割方式を用いてもよく、例えば、複数のモジュールを組み合わせても、又は他のシステムに集積してもよく、又はいくつかの特徴を考慮しなくてもよく、又は実行しない。他方では、表示又は解説した相互間の結合又は直接結合又は通信接続は、いくつかのインタフェースを介しても、装置又はモジュールの間接結合又は通信接続でもよく、電気的、機械的又は他の形式の接続でもよい。
上記別体部材として説明されたモジュールは、物理的に分離するか、又は物理的に分離していないものであってもよく、モジュールとして表現された部材は、物理的ユニットでも、又はそうでなくてもよく、すなわち1箇所に位置しても、又は複数のネットワークユニットに分布してもよい。実際の要件に基づき、その一部又は全てのユニットを選んで本実施例の解決手段の目的を実現させることができる。
また、本発明の各実施例における各機能モジュールは、同一処理ユニットに集積してもよく、各モジュールが単独で物理的に存在してもよく、2つ又は2つ以上のモジュールを同一ユニットに集積してもよい。上記集積されたユニットはハードウェアの形式で実現可能であり、ハードウェアとソフトウェア機能ユニットの形式でも実現可能である。
上記ソフトウェア機能モジュールの形式で実現される集積されるモジュールは、コンピュータ可読記憶媒体に記憶されてもよい。上記ソフトウェア機能モジュールは1つの記憶媒体に記憶され、1つのコンピュータ装置(パーソナルコンピュータ、サーバ、又はネットワーク装置等にしてもよい)、又はプロセッサ(英語:processor)に本出願の各実施例に記載の方法のステップの一部を実行させるための複数の命令を含む。
上記プロセッサは、中央処理装置(英語:Central Processing Unit、略称:CPU)であってもよいし、他の汎用プロセッサ、デジタル信号プロセッサ(英語:Digital Signal Processor、略称:DSP)、専用集積回路(英語:Application Specific Integrated Circuit、略称:ASIC)等であってもよいと理解されるべきである。汎用プロセッサは、マイクロプロセッサであってもよく、又はプロセッサは、任意の従来のプロセッサ等であってもよい。本発明の実施例が開示する方法のステップと組み合わせ、ハードウェアのプロセッサで直接実行するか、又はプロセッサにおけるハードウェア及びソフトウェアモジュールの組み合わせによって実行してもよい。
メモリは、高速RAM記憶装置を含んでもよく、不揮発性メモリNVMを含んでもよく、例えば少なくとも1つの磁気ディスクメモリであり、またUディスク、モバイルハードディスク、読み取り専用メモリ、磁気ディスク又は光ディスク等であってもよい。
バスは、業界標準アーキテクチャ(Industry Standard Architecture、ISA)バス、周辺機器コンポーネント(Peripheral Component、PCI)バス又は拡張業界標準アーキテクチャ(Extended Industry Standard Architecture、EISA)バス等であってもよい。バスは、アドレスバス、データバス、制御バス等に分けることができる。図示の便宜上、本出願の図面におけるバスは、1本又は1種類のバスしかないものに限定するわけではない。
上記記憶媒体は、例えばスタティックランダムアクセスメモリ(SRAM)、電気的消去可能プログラマブルリードオンリーメモリ(EEPROM)、消去可能プログラマブルリードオンリーメモリ(EPROM)、プログラマブルリードオンリーメモリ(PROM)、読み取り専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気ディスク又は光ディスク、任意タイプの揮発性又は不揮発性の記憶装置又はそれらの組み合わせによって実現することができる。記憶媒体は、汎用又は専用コンピュータによってアクセス可能な任意の利用可能な媒体であってもよい。
例示的な記憶媒体は、プロセッサに結合されることにより、プロセッサが記憶媒体から情報を読み取ったり、記憶媒体に情報を書き込んだりすることを可能にする。当然のことながら、記憶媒体は、プロセッサの構成部分であってもよい。プロセッサ及び記憶媒体は、専用集積回路(Application Specific Integrated Circuits、略称:ASIC)に存在してもよい。当然のことながら、プロセッサ及び記憶媒体は、独立部品として電子装置又は主制御装置に存在してもよい。
当業者である場合理解できるように、上述した各方法例の全部又は一部のステップは、プログラム命令に関連するハードウェアによって達成することができる。プログラムは、コンピュータ可読記憶媒体に記憶されてもよい。プログラムは、実行する時、上記各方法例のステップを含んで実行する。記憶媒体は、ROM、RAM、磁気ディスク又は光ディスク等の、プログラムコードを記憶できる各種の媒体を含む。
最後に説明すべきように、以上の各実施例が、本発明の技術的解決手段を説明することにのみ用いられ、これらに限定されるものではないことである。前述の各実施例を参照して本発明について詳細に説明したが、当業者であれば理解すべきように、それは、依然として前述の各実施例に記載された技術的解決手段を修正し、又はそのうちの一部又は全部の技術的特徴に対して同等の置換を行うことが可能である。これらの修正又は置換は、対応する技術的解決手段の本質を本発明の各実施例の技術的解決手段の範囲から逸脱させるものではない。

Claims (19)

  1. 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップと、
    NOである場合、前記第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するステップと、
    前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップと、
    基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、前記第1の問答結果を返送するステップと、
    を含む音声対話方法。
  2. 前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前記ステップは、
    前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに対して加算処理を行い、前記第3の文ベクトルを取得すること、
    を含む請求項1に記載の音声対話方法。
  3. 前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前記ステップの前、前記音声対話方法は、
    前記第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、前記第2の質問文に対して単語分割処理を行って複数の第2の単語を取得するステップと、
    前記複数の第1の単語の単語ベクトルに基づいて前記第1の質問文の第1の文ベクトルを取得し、前記複数の第2の単語の単語ベクトルに基づいて前記第2の質問文の第2の文ベクトルを取得するステップと、
    をさらに含む請求項1に記載の音声対話方法。
  4. 前記基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得する前記ステップは、
    第1の問答対及び前記第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得することと、
    前記第3の文ベクトルとの類似度が最も高い第5の文ベクトルを前記第4の文ベクトルとすることと、
    前記基礎コーパスで前記第4の文ベクトルに対応する第1の問答結果を取得することと、
    を含む請求項1に記載の音声対話方法。
  5. 前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前記ステップは、
    前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの余弦類似度を取得すること、
    を含む請求項4に記載の音声対話方法。
  6. 前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前記ステップの前、
    ネットワークからチャット閉鎖集を取得し、前記チャット閉鎖集に基づいて第1の問答対を取得するステップと、
    前記第1の問答対に基づいて前記基礎コーパスを取得するステップと、
    をさらに含む請求項4に記載の音声対話方法。
  7. 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前記ステップの前、前記音声対話方法は、
    問答コーパスに前記第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるステップ、
    をさらに含む請求項1に記載の音声対話方法。
  8. 前記第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、前記音声対話方法は、
    前記第1の質問文の第1の文ベクトルに基づき、前記基礎コーパスで前記第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、前記第2の問答結果を返送するステップ、をさらに含む請求項1に記載の音声対話方法。
  9. 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するための判断モジュールと、
    判断モジュールの判断結果がNOである場合、前記第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するための文取得モジュールと、
    前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するための処理モジュールと、
    基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、前記第1の問答結果を返送するための結果取得モジュールと、
    を含む音声対話装置。
  10. 前記処理モジュールは、
    前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに対して加算処理を行い、前記第3の文ベクトルを取得するために用いられる
    請求項9に記載の音声対話装置。
  11. ベクトル取得モジュールをさらに含み、
    前記ベクトル取得モジュールはさらに、
    前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前、前記第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、前記第2の質問文に対して単語分割処理を行って複数の第2の単語を取得し、
    前記複数の第1の単語の単語ベクトルに基づいて前記第1の質問文の第1の文ベクトルを取得し、前記複数の第2の単語の単語ベクトルに基づいて前記第2の質問文の第2の文ベクトルを取得する
    ために用いられる請求項9に記載の音声対話装置。
  12. 前記結果取得モジュールは、
    第1の問答対及び前記第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得し、
    前記第3の文ベクトルとの類似度が最も高い第5の文ベクトルを前記第4の文ベクトルとし、
    前記基礎コーパスで前記第4の文ベクトルに対応する第1の問答結果を取得する
    ために用いられる請求項9に記載の音声対話装置。
  13. 前記結果取得モジュールはさらに、
    前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの余弦類似度を取得する
    ために用いられる請求項12に記載の音声対話装置。
  14. コーパス取得モジュールをさらに含み、
    前記コーパス取得モジュールは、
    前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前、ネットワークからチャット閉鎖集を取得し、前記チャット閉鎖集に基づいて第1の問答対を取得し、
    前記第1の問答対に基づいて前記基礎コーパスを取得する
    ために用いられる請求項12に記載の音声対話装置。
  15. 前記判断モジュールはさらに、
    現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前、問答コーパスに前記第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOである
    ために用いられる請求項9に記載の音声対話装置。
  16. 前記結果取得モジュールはさらに、
    前記第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、前記第1の質問文の第1の文ベクトルに基づき、前記基礎コーパスで前記第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、前記第2の問答結果を返送する
    ために用いられる請求項9に記載の音声対話装置。
  17. 少なくとも1つのプロセッサ及びメモリを含み、
    前記メモリには、コンピュータの実行命令が記憶され、
    前記少なくとも1つのプロセッサが請求項1〜8のいずれか一項に記載の音声対話方法を実行するように、前記少なくとも1つのプロセッサは、前記メモリに記憶されたコンピュータの実行命令を実行する
    音声対話装置。
  18. プロセッサにより実行された場合、コンピュータに請求項1〜8のいずれか一項に記載の音声対話方法を実行させるためのコンピュータの実行命令を含む、コンピュータプログラム。
  19. 請求項18に記載のコンピュータプログラムを格納する、 コンピュータ可読記憶媒体。
JP2019048952A 2018-06-27 2019-03-15 音声対話方法及び装置 Active JP6677419B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810685005.0 2018-06-27
CN201810685005.0A CN108920604B (zh) 2018-06-27 2018-06-27 语音交互方法及设备

Publications (2)

Publication Number Publication Date
JP2020004382A true JP2020004382A (ja) 2020-01-09
JP6677419B2 JP6677419B2 (ja) 2020-04-08

Family

ID=64421834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019048952A Active JP6677419B2 (ja) 2018-06-27 2019-03-15 音声対話方法及び装置

Country Status (3)

Country Link
US (1) US10984793B2 (ja)
JP (1) JP6677419B2 (ja)
CN (1) CN108920604B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109829040B (zh) * 2018-12-21 2023-04-07 深圳市元征科技股份有限公司 一种智能对话方法及装置
CN110020429B (zh) * 2019-02-27 2023-05-23 阿波罗智联(北京)科技有限公司 语义识别方法及设备
US20200380030A1 (en) * 2019-05-31 2020-12-03 Adobe Inc. In-application video navigation system
CN110223697B (zh) 2019-06-13 2022-04-22 思必驰科技股份有限公司 人机对话方法及系统
KR20190096853A (ko) * 2019-07-30 2019-08-20 엘지전자 주식회사 음성 처리 방법 및 음성 처리 장치
CN110569331A (zh) * 2019-09-04 2019-12-13 出门问问信息科技有限公司 一种基于上下文的关联性预测方法、装置及存储设备
US11347708B2 (en) 2019-11-11 2022-05-31 Salesforce.Com, Inc. System and method for unsupervised density based table structure identification
CN113488036A (zh) * 2020-06-10 2021-10-08 海信集团有限公司 一种多轮语音交互方法、终端及服务器
CN113761107B (zh) * 2021-09-18 2024-06-07 杭州网易智企科技有限公司 基于问答系统的信息处理方法、介质、装置和计算设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192491A (ja) * 2002-12-13 2004-07-08 Oki Electric Ind Co Ltd 質問応答装置、質問応答プログラムおよび該プログラムを記録した記録媒体
JP2008129692A (ja) * 2006-11-17 2008-06-05 Nec Corp 回答支援装置、回答支援システム、回答支援方法および回答支援プログラム
US20150269142A1 (en) * 2014-03-20 2015-09-24 Support Machines Ltd. System and method for automatically generating a dataset for a system that recognizes questions posed in natural language and answers with predefined answers
JP2018055548A (ja) * 2016-09-30 2018-04-05 株式会社Nextremer 対話装置、学習装置、対話方法、学習方法、およびプログラム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8756245B2 (en) * 2005-07-25 2014-06-17 Iac Search & Media, Inc. Systems and methods for answering user questions
US8346701B2 (en) * 2009-01-23 2013-01-01 Microsoft Corporation Answer ranking in community question-answering sites
CN103810218B (zh) * 2012-11-14 2018-06-08 北京百度网讯科技有限公司 一种基于问题簇的自动问答方法和装置
US9247061B2 (en) * 2013-03-15 2016-01-26 Avaya Inc. Answer based agent routing and display method
CN104216891B (zh) * 2013-05-30 2018-02-02 国际商业机器公司 关系型数据库中的查询语句的优化方法和设备
US10222961B2 (en) * 2014-03-26 2019-03-05 Unanimous A. I., Inc. Methods for analyzing decisions made by real-time collective intelligence systems
US20180204184A1 (en) * 2014-03-26 2018-07-19 Unanimous A. I., Inc. Parallelized sub-factor aggregation in real-time swarm-based collective intelligence systems
CN105095444A (zh) * 2015-07-24 2015-11-25 百度在线网络技术(北京)有限公司 信息获取方法和装置
CN107153639A (zh) * 2016-03-04 2017-09-12 北大方正集团有限公司 智能问答方法及系统
CN106095834A (zh) * 2016-06-01 2016-11-09 竹间智能科技(上海)有限公司 基于话题的智能对话方法及系统
CN106484664B (zh) * 2016-10-21 2019-03-01 竹间智能科技(上海)有限公司 一种短文本间相似度计算方法
EP3539011A1 (en) * 2016-11-10 2019-09-18 Rowanalytics Ltd Control apparatus and method for processing data inputs in computing devices therefore
CN107220590B (zh) * 2017-04-24 2021-01-05 广东数相智能科技有限公司 一种基于活体检测的防作弊网络调研方法、装置及系统
US10642875B2 (en) * 2017-04-28 2020-05-05 International Business Machines Corporation Accurate relationship extraction with word embeddings using minimal training data
CN107329967B (zh) * 2017-05-12 2019-09-24 北京邮电大学 基于深度学习的问答系统以及方法
CN107193978A (zh) * 2017-05-26 2017-09-22 武汉泰迪智慧科技有限公司 一种基于深度学习的多轮自动聊天对话方法及系统
US11086920B2 (en) * 2017-06-22 2021-08-10 Cerego, Llc. System and method for automatically generating concepts related to a target concept
CN107729322B (zh) * 2017-11-06 2021-01-12 广州杰赛科技股份有限公司 分词方法及装置、建立句子向量生成模型方法及装置
CN108170749B (zh) * 2017-12-21 2021-06-11 北京百度网讯科技有限公司 基于人工智能的对话方法、装置及计算机可读介质
US11625609B2 (en) * 2018-06-14 2023-04-11 International Business Machines Corporation Integration of external applications into deep neural networks

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004192491A (ja) * 2002-12-13 2004-07-08 Oki Electric Ind Co Ltd 質問応答装置、質問応答プログラムおよび該プログラムを記録した記録媒体
JP2008129692A (ja) * 2006-11-17 2008-06-05 Nec Corp 回答支援装置、回答支援システム、回答支援方法および回答支援プログラム
US20150269142A1 (en) * 2014-03-20 2015-09-24 Support Machines Ltd. System and method for automatically generating a dataset for a system that recognizes questions posed in natural language and answers with predefined answers
JP2018055548A (ja) * 2016-09-30 2018-04-05 株式会社Nextremer 対話装置、学習装置、対話方法、学習方法、およびプログラム

Also Published As

Publication number Publication date
US10984793B2 (en) 2021-04-20
CN108920604B (zh) 2019-08-13
CN108920604A (zh) 2018-11-30
JP6677419B2 (ja) 2020-04-08
US20200005780A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
JP6677419B2 (ja) 音声対話方法及び装置
CN112100349B (zh) 一种多轮对话方法、装置、电子设备及存储介质
US11322153B2 (en) Conversation interaction method, apparatus and computer readable storage medium
CN110444199B (zh) 一种语音关键词识别方法、装置、终端及服务器
KR102222317B1 (ko) 음성 인식 방법, 전자 디바이스, 및 컴퓨터 저장 매체
CN110516253B (zh) 中文口语语义理解方法及系统
US9390711B2 (en) Information recognition method and apparatus
CN110930980B (zh) 一种中英文混合语音的声学识别方法及系统
CN111145732B (zh) 多任务语音识别后的处理方法及系统
CN111159358A (zh) 多意图识别训练和使用方法及装置
CN112017643B (zh) 语音识别模型训练方法、语音识别方法及相关装置
CN113158687B (zh) 语义的消歧方法及装置、存储介质、电子装置
CN111126084B (zh) 数据处理方法、装置、电子设备和存储介质
CN112559725A (zh) 文本匹配方法、装置、终端和存储介质
CN113326702A (zh) 语义识别方法、装置、电子设备及存储介质
CN114420102B (zh) 语音断句方法、装置、电子设备及存储介质
CN111858865B (zh) 一种语义识别方法、装置、电子设备及计算机可读存储介质
CN111402864A (zh) 语音处理方法及电子设备
CN110020429B (zh) 语义识别方法及设备
CN116913278B (zh) 语音处理方法、装置、设备和存储介质
CN111477212A (zh) 内容识别、模型训练、数据处理方法、系统及设备
CN111680514B (zh) 信息处理和模型训练方法、装置、设备及存储介质
CN114783405B (zh) 一种语音合成方法、装置、电子设备及存储介质
CN111382322B (zh) 字符串相似度的确定方法和装置
CN111785259A (zh) 信息处理方法、装置及电子设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200309

R150 Certificate of patent or registration of utility model

Ref document number: 6677419

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250