JP2020004382A - 音声対話方法及び装置 - Google Patents
音声対話方法及び装置 Download PDFInfo
- Publication number
- JP2020004382A JP2020004382A JP2019048952A JP2019048952A JP2020004382A JP 2020004382 A JP2020004382 A JP 2020004382A JP 2019048952 A JP2019048952 A JP 2019048952A JP 2019048952 A JP2019048952 A JP 2019048952A JP 2020004382 A JP2020004382 A JP 2020004382A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- question
- vector
- sentence vector
- answer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000003993 interaction Effects 0.000 title claims abstract description 40
- 239000013598 vector Substances 0.000 claims abstract description 269
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 15
- 230000002452 interceptive effect Effects 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims 2
- 238000013461 design Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 5
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/027—Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
[文1]
、
[文2]
等を含むことができる。
現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップと、
NOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するステップと、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップと、
基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するステップと、を含む。
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに対して加算処理を行い、第3の文ベクトルを取得すること、を含む。
第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得するステップと、
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するステップと、をさらに含む。
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得することと、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとすることと、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得することと、を含む。
基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの余弦類似度を取得すること、を含む。
ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得するステップと、
第1の問答対に基づいて基礎コーパスを取得するステップと、をさらに含む。
問答コーパスに第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるステップ、をさらに含む。
第1の質問文の第1の文ベクトルに基づき、基礎コーパスで第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、かつ第2の問答結果を返送するステップ、をさらに含む。
現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するための判断モジュールと、
判断モジュールの判断結果がNOである場合、第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するための文取得モジュールと、
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するための処理モジュールと、
基礎コーパスで第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、かつ第1の問答結果を返送するための結果取得モジュールと、を含む。
ベクトル取得モジュールはさらに、第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前、第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、かつ第2の質問文に対して単語分割処理を行って複数の第2の単語を取得し、
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するために用いられる。
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得し、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとし、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得するために用いられる。
コーパス取得モジュールは、基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得する前、ネットワークからチャット閉鎖集を取得し、かつチャット閉鎖集に基づいて第1の問答対を取得し、
第1の問答対に基づいて基礎コーパスを取得するために用いられる。
メモリには、コンピュータの実行命令が記憶され、
少なくとも1つのプロセッサが上述した第1の態様及び第1の態様の各種の可能な設計に記載の音声対話方法を実行するように、少なくとも1つのプロセッサは、メモリに記憶されたコンピュータの実行命令を実行する。
[文3]
式の知能的な人間と機械との対話体験を提供する。スマート問答、スマート再生、スマート検索等のシーンを含む複数の応用シーンに適用する。
[文4]
であり、そしてユーザが「今天下雪了」と言った。次に、最後のこの文の「今天下雪了」に対して以下の複数回のマッチングのアルゴリズムを採用して基礎話術の出力を行う。
[文5]
を回答する。このように、上記の情報の一部をある程度使用することができ、回答全体をよりスマートで使いやすいものにする。
第1の質問文の第1の文ベクトル及び第2の質問文の第2の文ベクトルに対して加算処理を行い、第3の文ベクトルを取得するために用いられる。
複数の第1の単語の単語ベクトルに基づいて第1の質問文の第1の文ベクトルを取得し、かつ複数の第2の単語の単語ベクトルに基づいて第2の質問文の第2の文ベクトルを取得するために用いられる。
第1の問答対及び第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの類似度を取得し、
第3の文ベクトルとの類似度が最も高い第5の文ベクトルを第4の文ベクトルとし、
基礎コーパスで第4の文ベクトルに対応する第1の問答結果を取得するために用いられる。
基礎コーパスにおける各第5の文ベクトルと第3の文ベクトルとの余弦類似度を取得するために用いられる。
第1の問答対に基づいて基礎コーパスを取得するために用いられる。
Claims (19)
- 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するステップと、
NOである場合、前記第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するステップと、
前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するステップと、
基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、前記第1の問答結果を返送するステップと、
を含む音声対話方法。 - 前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前記ステップは、
前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに対して加算処理を行い、前記第3の文ベクトルを取得すること、
を含む請求項1に記載の音声対話方法。 - 前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前記ステップの前、前記音声対話方法は、
前記第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、前記第2の質問文に対して単語分割処理を行って複数の第2の単語を取得するステップと、
前記複数の第1の単語の単語ベクトルに基づいて前記第1の質問文の第1の文ベクトルを取得し、前記複数の第2の単語の単語ベクトルに基づいて前記第2の質問文の第2の文ベクトルを取得するステップと、
をさらに含む請求項1に記載の音声対話方法。 - 前記基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得する前記ステップは、
第1の問答対及び前記第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得することと、
前記第3の文ベクトルとの類似度が最も高い第5の文ベクトルを前記第4の文ベクトルとすることと、
前記基礎コーパスで前記第4の文ベクトルに対応する第1の問答結果を取得することと、
を含む請求項1に記載の音声対話方法。 - 前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前記ステップは、
前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの余弦類似度を取得すること、
を含む請求項4に記載の音声対話方法。 - 前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前記ステップの前、
ネットワークからチャット閉鎖集を取得し、前記チャット閉鎖集に基づいて第1の問答対を取得するステップと、
前記第1の問答対に基づいて前記基礎コーパスを取得するステップと、
をさらに含む請求項4に記載の音声対話方法。 - 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前記ステップの前、前記音声対話方法は、
問答コーパスに前記第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOであるステップ、
をさらに含む請求項1に記載の音声対話方法。 - 前記第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、前記音声対話方法は、
前記第1の質問文の第1の文ベクトルに基づき、前記基礎コーパスで前記第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、前記第2の問答結果を返送するステップ、をさらに含む請求項1に記載の音声対話方法。 - 現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断するための判断モジュールと、
判断モジュールの判断結果がNOである場合、前記第1の質問文を受信した前に受信された最後の質問文である第2の質問文を取得するための文取得モジュールと、
前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得するための処理モジュールと、
基礎コーパスで前記第3の文ベクトルとの類似度が予め設定された条件を満たす第4の文ベクトルに対応する第1の問答結果を取得し、前記第1の問答結果を返送するための結果取得モジュールと、
を含む音声対話装置。 - 前記処理モジュールは、
前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに対して加算処理を行い、前記第3の文ベクトルを取得するために用いられる
請求項9に記載の音声対話装置。 - ベクトル取得モジュールをさらに含み、
前記ベクトル取得モジュールはさらに、
前記第1の質問文の第1の文ベクトル及び前記第2の質問文の第2の文ベクトルに基づいて第3の文ベクトルを取得する前、前記第1の質問文に対して単語分割処理を行って複数の第1の単語を取得し、前記第2の質問文に対して単語分割処理を行って複数の第2の単語を取得し、
前記複数の第1の単語の単語ベクトルに基づいて前記第1の質問文の第1の文ベクトルを取得し、前記複数の第2の単語の単語ベクトルに基づいて前記第2の質問文の第2の文ベクトルを取得する
ために用いられる請求項9に記載の音声対話装置。 - 前記結果取得モジュールは、
第1の問答対及び前記第1の問答対における第3の質問文に対応する第5の文ベクトルが含まれる前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得し、
前記第3の文ベクトルとの類似度が最も高い第5の文ベクトルを前記第4の文ベクトルとし、
前記基礎コーパスで前記第4の文ベクトルに対応する第1の問答結果を取得する
ために用いられる請求項9に記載の音声対話装置。 - 前記結果取得モジュールはさらに、
前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの余弦類似度を取得する
ために用いられる請求項12に記載の音声対話装置。 - コーパス取得モジュールをさらに含み、
前記コーパス取得モジュールは、
前記基礎コーパスにおける各第5の文ベクトルと前記第3の文ベクトルとの類似度を取得する前、ネットワークからチャット閉鎖集を取得し、前記チャット閉鎖集に基づいて第1の問答対を取得し、
前記第1の問答対に基づいて前記基礎コーパスを取得する
ために用いられる請求項12に記載の音声対話装置。 - 前記判断モジュールはさらに、
現在受信された第1の質問文が予め設定された時間帯内に受信された最初の質問文であるかどうかを判断する前、問答コーパスに前記第1の質問文に対応する第2の問答対が存在するかどうかを判断し、得られた判断結果がNOである
ために用いられる請求項9に記載の音声対話装置。 - 前記結果取得モジュールはさらに、
前記第1の質問文が予め設定された時間帯内に受信された最初の質問文である場合、前記第1の質問文の第1の文ベクトルに基づき、前記基礎コーパスで前記第1の文ベクトルとの類似度が予め設定された条件を満たす第6の文ベクトルに対応する第2の問答結果を取得し、前記第2の問答結果を返送する
ために用いられる請求項9に記載の音声対話装置。 - 少なくとも1つのプロセッサ及びメモリを含み、
前記メモリには、コンピュータの実行命令が記憶され、
前記少なくとも1つのプロセッサが請求項1〜8のいずれか一項に記載の音声対話方法を実行するように、前記少なくとも1つのプロセッサは、前記メモリに記憶されたコンピュータの実行命令を実行する
音声対話装置。 - プロセッサにより実行された場合、コンピュータに請求項1〜8のいずれか一項に記載の音声対話方法を実行させるためのコンピュータの実行命令を含む、コンピュータプログラム。
- 請求項18に記載のコンピュータプログラムを格納する、 コンピュータ可読記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810685005.0 | 2018-06-27 | ||
CN201810685005.0A CN108920604B (zh) | 2018-06-27 | 2018-06-27 | 语音交互方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020004382A true JP2020004382A (ja) | 2020-01-09 |
JP6677419B2 JP6677419B2 (ja) | 2020-04-08 |
Family
ID=64421834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019048952A Active JP6677419B2 (ja) | 2018-06-27 | 2019-03-15 | 音声対話方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10984793B2 (ja) |
JP (1) | JP6677419B2 (ja) |
CN (1) | CN108920604B (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829040B (zh) * | 2018-12-21 | 2023-04-07 | 深圳市元征科技股份有限公司 | 一种智能对话方法及装置 |
CN110020429B (zh) * | 2019-02-27 | 2023-05-23 | 阿波罗智联(北京)科技有限公司 | 语义识别方法及设备 |
US20200380030A1 (en) * | 2019-05-31 | 2020-12-03 | Adobe Inc. | In-application video navigation system |
CN110223697B (zh) | 2019-06-13 | 2022-04-22 | 思必驰科技股份有限公司 | 人机对话方法及系统 |
KR20190096853A (ko) * | 2019-07-30 | 2019-08-20 | 엘지전자 주식회사 | 음성 처리 방법 및 음성 처리 장치 |
CN110569331A (zh) * | 2019-09-04 | 2019-12-13 | 出门问问信息科技有限公司 | 一种基于上下文的关联性预测方法、装置及存储设备 |
US11347708B2 (en) | 2019-11-11 | 2022-05-31 | Salesforce.Com, Inc. | System and method for unsupervised density based table structure identification |
CN113488036A (zh) * | 2020-06-10 | 2021-10-08 | 海信集团有限公司 | 一种多轮语音交互方法、终端及服务器 |
CN113761107B (zh) * | 2021-09-18 | 2024-06-07 | 杭州网易智企科技有限公司 | 基于问答系统的信息处理方法、介质、装置和计算设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004192491A (ja) * | 2002-12-13 | 2004-07-08 | Oki Electric Ind Co Ltd | 質問応答装置、質問応答プログラムおよび該プログラムを記録した記録媒体 |
JP2008129692A (ja) * | 2006-11-17 | 2008-06-05 | Nec Corp | 回答支援装置、回答支援システム、回答支援方法および回答支援プログラム |
US20150269142A1 (en) * | 2014-03-20 | 2015-09-24 | Support Machines Ltd. | System and method for automatically generating a dataset for a system that recognizes questions posed in natural language and answers with predefined answers |
JP2018055548A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社Nextremer | 対話装置、学習装置、対話方法、学習方法、およびプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8756245B2 (en) * | 2005-07-25 | 2014-06-17 | Iac Search & Media, Inc. | Systems and methods for answering user questions |
US8346701B2 (en) * | 2009-01-23 | 2013-01-01 | Microsoft Corporation | Answer ranking in community question-answering sites |
CN103810218B (zh) * | 2012-11-14 | 2018-06-08 | 北京百度网讯科技有限公司 | 一种基于问题簇的自动问答方法和装置 |
US9247061B2 (en) * | 2013-03-15 | 2016-01-26 | Avaya Inc. | Answer based agent routing and display method |
CN104216891B (zh) * | 2013-05-30 | 2018-02-02 | 国际商业机器公司 | 关系型数据库中的查询语句的优化方法和设备 |
US10222961B2 (en) * | 2014-03-26 | 2019-03-05 | Unanimous A. I., Inc. | Methods for analyzing decisions made by real-time collective intelligence systems |
US20180204184A1 (en) * | 2014-03-26 | 2018-07-19 | Unanimous A. I., Inc. | Parallelized sub-factor aggregation in real-time swarm-based collective intelligence systems |
CN105095444A (zh) * | 2015-07-24 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 信息获取方法和装置 |
CN107153639A (zh) * | 2016-03-04 | 2017-09-12 | 北大方正集团有限公司 | 智能问答方法及系统 |
CN106095834A (zh) * | 2016-06-01 | 2016-11-09 | 竹间智能科技(上海)有限公司 | 基于话题的智能对话方法及系统 |
CN106484664B (zh) * | 2016-10-21 | 2019-03-01 | 竹间智能科技(上海)有限公司 | 一种短文本间相似度计算方法 |
EP3539011A1 (en) * | 2016-11-10 | 2019-09-18 | Rowanalytics Ltd | Control apparatus and method for processing data inputs in computing devices therefore |
CN107220590B (zh) * | 2017-04-24 | 2021-01-05 | 广东数相智能科技有限公司 | 一种基于活体检测的防作弊网络调研方法、装置及系统 |
US10642875B2 (en) * | 2017-04-28 | 2020-05-05 | International Business Machines Corporation | Accurate relationship extraction with word embeddings using minimal training data |
CN107329967B (zh) * | 2017-05-12 | 2019-09-24 | 北京邮电大学 | 基于深度学习的问答系统以及方法 |
CN107193978A (zh) * | 2017-05-26 | 2017-09-22 | 武汉泰迪智慧科技有限公司 | 一种基于深度学习的多轮自动聊天对话方法及系统 |
US11086920B2 (en) * | 2017-06-22 | 2021-08-10 | Cerego, Llc. | System and method for automatically generating concepts related to a target concept |
CN107729322B (zh) * | 2017-11-06 | 2021-01-12 | 广州杰赛科技股份有限公司 | 分词方法及装置、建立句子向量生成模型方法及装置 |
CN108170749B (zh) * | 2017-12-21 | 2021-06-11 | 北京百度网讯科技有限公司 | 基于人工智能的对话方法、装置及计算机可读介质 |
US11625609B2 (en) * | 2018-06-14 | 2023-04-11 | International Business Machines Corporation | Integration of external applications into deep neural networks |
-
2018
- 2018-06-27 CN CN201810685005.0A patent/CN108920604B/zh active Active
-
2019
- 2019-02-18 US US16/278,676 patent/US10984793B2/en active Active
- 2019-03-15 JP JP2019048952A patent/JP6677419B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004192491A (ja) * | 2002-12-13 | 2004-07-08 | Oki Electric Ind Co Ltd | 質問応答装置、質問応答プログラムおよび該プログラムを記録した記録媒体 |
JP2008129692A (ja) * | 2006-11-17 | 2008-06-05 | Nec Corp | 回答支援装置、回答支援システム、回答支援方法および回答支援プログラム |
US20150269142A1 (en) * | 2014-03-20 | 2015-09-24 | Support Machines Ltd. | System and method for automatically generating a dataset for a system that recognizes questions posed in natural language and answers with predefined answers |
JP2018055548A (ja) * | 2016-09-30 | 2018-04-05 | 株式会社Nextremer | 対話装置、学習装置、対話方法、学習方法、およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10984793B2 (en) | 2021-04-20 |
CN108920604B (zh) | 2019-08-13 |
CN108920604A (zh) | 2018-11-30 |
JP6677419B2 (ja) | 2020-04-08 |
US20200005780A1 (en) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6677419B2 (ja) | 音声対話方法及び装置 | |
CN112100349B (zh) | 一种多轮对话方法、装置、电子设备及存储介质 | |
US11322153B2 (en) | Conversation interaction method, apparatus and computer readable storage medium | |
CN110444199B (zh) | 一种语音关键词识别方法、装置、终端及服务器 | |
KR102222317B1 (ko) | 음성 인식 방법, 전자 디바이스, 및 컴퓨터 저장 매체 | |
CN110516253B (zh) | 中文口语语义理解方法及系统 | |
US9390711B2 (en) | Information recognition method and apparatus | |
CN110930980B (zh) | 一种中英文混合语音的声学识别方法及系统 | |
CN111145732B (zh) | 多任务语音识别后的处理方法及系统 | |
CN111159358A (zh) | 多意图识别训练和使用方法及装置 | |
CN112017643B (zh) | 语音识别模型训练方法、语音识别方法及相关装置 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
CN111126084B (zh) | 数据处理方法、装置、电子设备和存储介质 | |
CN112559725A (zh) | 文本匹配方法、装置、终端和存储介质 | |
CN113326702A (zh) | 语义识别方法、装置、电子设备及存储介质 | |
CN114420102B (zh) | 语音断句方法、装置、电子设备及存储介质 | |
CN111858865B (zh) | 一种语义识别方法、装置、电子设备及计算机可读存储介质 | |
CN111402864A (zh) | 语音处理方法及电子设备 | |
CN110020429B (zh) | 语义识别方法及设备 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN111477212A (zh) | 内容识别、模型训练、数据处理方法、系统及设备 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN114783405B (zh) | 一种语音合成方法、装置、电子设备及存储介质 | |
CN111382322B (zh) | 字符串相似度的确定方法和装置 | |
CN111785259A (zh) | 信息处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200128 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6677419 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313114 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |