JP2021501356A - 暗黙的ルーティングを使用したモジュール式会話の作成 - Google Patents
暗黙的ルーティングを使用したモジュール式会話の作成 Download PDFInfo
- Publication number
- JP2021501356A JP2021501356A JP2020522666A JP2020522666A JP2021501356A JP 2021501356 A JP2021501356 A JP 2021501356A JP 2020522666 A JP2020522666 A JP 2020522666A JP 2020522666 A JP2020522666 A JP 2020522666A JP 2021501356 A JP2021501356 A JP 2021501356A
- Authority
- JP
- Japan
- Prior art keywords
- language
- language content
- language input
- handler
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 60
- 230000009471 action Effects 0.000 claims abstract description 29
- 230000004044 response Effects 0.000 claims abstract description 11
- 230000008451 emotion Effects 0.000 claims description 32
- 238000004458 analytical method Methods 0.000 claims description 28
- 230000008569 process Effects 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 6
- 230000001052 transient effect Effects 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 19
- 239000000284 extract Substances 0.000 description 12
- 230000003993 interaction Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 9
- 230000002996 emotional effect Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000002452 interceptive effect Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000004378 air conditioning Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 230000000977 initiatory effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- HRANPRDGABOKNQ-ORGXEYTDSA-N (1r,3r,3as,3br,7ar,8as,8bs,8cs,10as)-1-acetyl-5-chloro-3-hydroxy-8b,10a-dimethyl-7-oxo-1,2,3,3a,3b,7,7a,8,8a,8b,8c,9,10,10a-tetradecahydrocyclopenta[a]cyclopropa[g]phenanthren-1-yl acetate Chemical compound C1=C(Cl)C2=CC(=O)[C@@H]3C[C@@H]3[C@]2(C)[C@@H]2[C@@H]1[C@@H]1[C@H](O)C[C@@](C(C)=O)(OC(=O)C)[C@@]1(C)CC2 HRANPRDGABOKNQ-ORGXEYTDSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Abstract
Description
− 言語入力をユーザから受信すること。
− 複数の言語内容識別器(verbal content identifiers)を言語入力に適用することであって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、適用すること。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
− 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングすることであって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、ルーティングすること。
− 言語入力をユーザから受信するためのコード命令。
− 複数の言語内容識別器を言語入力に適用するためのコード命令であって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、コード命令。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
− 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングするためのコード命令であって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、コード命令。
− 非一過性コンピュータ可読記憶媒体。
− 言語入力をユーザから受信するための第1のコード命令。
− 複数の言語内容識別器を言語入力に適用するための第2のコード命令であって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、第2のコード命令。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
− 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングするための第3のコード命令であって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、第3のコード命令。
第1、第2、および第3のコード命令は、1つまたは複数のプロセッサによって非一過性コンピュータ可読記憶媒体から実行される。
− 1つまたは複数の音声解析ツールを使用して抽出されたユーザの感情。
− 1つまたは複数の音声解析ツールを使用して抽出されたユーザの情緒。
− 1つまたは複数の位置検出ツールから取得されたユーザの地理的位置。
− 1つまたは複数の以前の言語入力から抽出された1つまたは複数の以前の特徴。
言語入力のコンテキスト、ユーザのコンテキストなどがユーザの実際のインテントを大いに表すことがあるため、コンテキスト属性を使用することによって、選択されるハンドラの選択の精度を大幅に上げることができる。
− しきい値。
− 言語入力を処理するための各ハンドラの能力。
− 特徴のうちの1つまたは複数を抽出するために複数の言語内容識別器のうちの1つまたは複数によって適用される解析の説明。
− 1つまたは複数の以前の言語入力に関連するルーティング情報。
− 複数のハンドラのうちの少なくとも別の1つから取得された情報。
特に、以前の言語入力またはユーザとの対話セッションの対話フローあるいはその両方に関して、ハンドラの操作上のコンテキストがユーザのインテントを大いに表すことがあるため、操作上の属性を使用することによって、選択されるハンドラの選択の精度を大幅に上げることができる。
Claims (19)
- 言語入力を複数のハンドラのうちの1つにルーティングするコンピュータ実装方法であって、
コードを実行するように適応された少なくとも1つのプロセッサを使用することを含んでおり、前記コードは、
言語入力をユーザから受信することと、
複数の言語内容識別器を前記言語入力に適用することであって、前記複数の言語内容識別器の各々が、前記言語入力から抽出された少なくとも1つの特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの前記言語入力の関連性を評価するように適応されており、前記少なくとも1つの特徴が、前記ユーザによって表されたインテントおよび前記ユーザによって示されたエンティティのうちの少なくとも1つを含んでいる、前記適用することと、
前記複数の言語内容識別器によって計算された前記一致信頼値に基づいて、前記複数のハンドラのうちの選択された1つに前記言語入力をルーティングすることであって、前記選択されたハンドラが、前記言語入力に応答して少なくとも1つのアクションを開始するように適応されている、前記ルーティングすることと
を実行するように適応されている、コンピュータ実装方法。 - 前記言語入力が、テキストの言語入力および発話の言語入力から成る群の少なくとも1つの要素を含んでいる、請求項1に記載のコンピュータ実装方法。
- 前記言語入力を複数のセグメントにセグメント化することと、前記各セグメントに対して前記複数の言語内容識別器によって計算された前記一致信頼値に従って、前記複数のセグメントの各々を前記複数のハンドラのうちの1つにルーティングすることとをさらに含む、請求項1に記載のコンピュータ実装方法。
- 前記各ハンドラに対して定義された少なくとも1つの定義済みの特徴に従って前記関連性を評価するように前記各言語内容識別器を適応させることによって、前記複数の言語内容識別器の各々が前記複数のハンドラのうちの各1つに関連付けられる、請求項1に記載のコンピュータ実装方法。
- 前記一致信頼値が、前記少なくとも1つの特徴が各定義済みの特徴に一致する確率を示す、請求項1に記載のコンピュータ実装方法。
- 少なくとも1つの言語解析ツールを使用して前記言語入力から前記インテントが抽出され、前記インテントが、意思、目的、対象、および目標から成る群の要素である、請求項1に記載のコンピュータ実装方法。
- 少なくとも1つの言語解析ツールを使用して前記エンティティが前記言語入力から抽出される、請求項1に記載のコンピュータ実装方法。
- 前記複数の言語内容識別器のうちの少なくとも1つによって提供された少なくとも1つのコンテキスト属性に基づいて前記選択されるハンドラを選択することをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 前記少なくとも1つのコンテキスト属性が、
少なくとも1つの音声解析ツールを使用して抽出された前記ユーザの感情と、
少なくとも1つの音声解析ツールを使用して抽出された前記ユーザの情緒と、
少なくとも1つの位置検出ツールから取得された前記ユーザの地理的位置と、
少なくとも1つの以前の言語入力から抽出された少なくとも1つの以前の特徴と
のうちの少なくとも1つを含んでいる、請求項8に記載のコンピュータ実装方法。 - 前記複数の言語内容識別器のうちの少なくとも1つによって抽出された少なくとも1つの強制のエンティティの検出に基づいて、前記選択されるハンドラを選択することをさらに含み、前記少なくとも1つの強制のエンティティが、前記インテントと共に前記言語入力に現れるように事前に定義される、請求項8に記載のコンピュータ実装方法。
- 前記複数の言語内容識別器のうちの少なくとも1つによって提供された少なくとも1つの操作上の属性に基づいて前記選択されるハンドラを選択することをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 前記少なくとも1つの操作上の属性が、
しきい値と、
前記言語入力を処理するための前記各ハンドラの能力と、
前記少なくとも1つの特徴を抽出するために前記複数の言語内容識別器のうちの少なくとも1つによって適用される解析の説明と、
少なくとも1つの以前の言語入力に関連するルーティング情報と、
前記複数のハンドラのうちの少なくとも別の1つから取得された情報と
のうちの少なくとも1つを含んでいる、請求項11に記載のコンピュータ実装方法。 - 前記複数の言語内容識別器のうちの少なくとも一部に割り当てられた優先度に従って前記選択されるハンドラを選択することをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 定義済みのしきい値を超えることができない前記信頼値を提示する、前記複数の言語内容識別器のうちの1つに関連付けられた前記複数のハンドラのうちの少なくとも1つをフィルタで除去することをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 前記言語入力を処理できないとして、前記複数の言語内容識別器のうちの関連付けられた1つによって示された、前記複数のハンドラのうちの少なくとも1つをフィルタで除去することをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 前記複数の言語内容識別器のうちの複数の言語内容識別器によって類似する前記信頼値が計算された場合に、前記複数のハンドラのうちの最近のハンドラに前記言語入力をルーティングすることをさらに含んでおり、前記最近のハンドラが、前記複数の言語内容識別器に関連付けられたハンドラのグループ内の、以前の言語入力のルーティング先だった直近のハンドラである、請求項1に記載のコンピュータ実装方法。
- 前記複数の言語内容識別器によって計算された前記信頼値が定義済みのしきい値を超えることができない場合に、前記複数のハンドラのうちのデフォルトのハンドラに前記言語入力をルーティングすることをさらに含んでいる、請求項1に記載のコンピュータ実装方法。
- 言語入力を複数のハンドラのうちの1つにルーティングするためのシステムであって、
コードを実行するように適応された少なくとも1つのプロセッサを備えており、前記コードは、
言語入力をユーザから受信するためのコード命令と、
複数の言語内容識別器を前記言語入力に適用するためのコード命令であって、前記複数の言語内容識別器の各々が、前記言語入力から抽出された少なくとも1つの特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの前記言語入力の関連性を評価するように適応されており、前記少なくとも1つの特徴が、前記ユーザによって表されたインテントおよび前記ユーザによって示されたエンティティのうちの少なくとも1つを含んでいる、前記コード命令と、
前記複数の言語内容識別器によって計算された前記一致信頼値に基づいて、前記複数のハンドラのうちの選択された1つに前記言語入力をルーティングするためのコード命令であって、前記選択されたハンドラが、前記言語入力に応答して少なくとも1つのアクションを開始するように適応されている、前記コード命令とを含んでいる、システム。 - 言語入力を複数のハンドラのうちの1つにルーティングするためのコンピュータ・プログラム製品であって、
非一過性コンピュータ可読記憶媒体と、
言語入力をユーザから受信するための第1のコード命令と、
複数の言語内容識別器を前記言語入力に適用するための第2のコード命令であって、前記複数の言語内容識別器の各々が、前記言語入力から抽出された少なくとも1つの特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの前記言語入力の関連性を評価するように適応されており、前記少なくとも1つの特徴が、前記ユーザによって表されたインテントおよび前記ユーザによって示されたエンティティのうちの少なくとも1つを含んでいる、前記第2のコード命令と、
前記複数の言語内容識別器によって計算された前記一致信頼値に基づいて、前記複数のハンドラのうちの選択された1つに前記言語入力をルーティングするための第3のコード命令であって、前記選択されたハンドラが、前記言語入力に応答して少なくとも1つのアクションを開始するように適応されている、前記第3のコード命令とを備えており、
前記第1、第2、および第3のコード命令が、少なくとも1つのプロセッサによって前記非一過性コンピュータ可読記憶媒体から実行される、コンピュータ・プログラム製品。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/796,804 | 2017-10-29 | ||
US15/796,804 US10546584B2 (en) | 2017-10-29 | 2017-10-29 | Creating modular conversations using implicit routing |
PCT/IB2018/057925 WO2019082017A1 (en) | 2017-10-29 | 2018-10-12 | CREATING MODULAR CONVERSATIONS USING IMPLIED ROUTING |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021501356A true JP2021501356A (ja) | 2021-01-14 |
JP7220005B2 JP7220005B2 (ja) | 2023-02-09 |
Family
ID=66244202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522666A Active JP7220005B2 (ja) | 2017-10-29 | 2018-10-12 | 暗黙的ルーティングを使用したモジュール式会話の作成 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10546584B2 (ja) |
JP (1) | JP7220005B2 (ja) |
CN (1) | CN111279296B (ja) |
GB (1) | GB2581660B (ja) |
WO (1) | WO2019082017A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10666583B2 (en) * | 2017-11-27 | 2020-05-26 | Baidu Usa Llc | System and method for visually understanding and programming conversational agents of electronic devices |
US10754885B2 (en) * | 2017-11-27 | 2020-08-25 | Baidu Usa Llc | System and method for visually searching and debugging conversational agents of electronic devices |
US11348576B1 (en) * | 2017-12-06 | 2022-05-31 | Amazon Technologies, Inc. | Universal and user-specific command processing |
US11447127B2 (en) * | 2019-06-10 | 2022-09-20 | Honda Motor Co., Ltd. | Methods and apparatuses for operating a self-driving vehicle |
US10812656B1 (en) | 2019-06-13 | 2020-10-20 | Salesboost, Llc | System, device, and method of performing data analytics for advising a sales representative during a voice call |
US20210064984A1 (en) * | 2019-08-29 | 2021-03-04 | Sap Se | Engagement prediction using machine learning in digital workplace |
US11934806B2 (en) | 2020-03-30 | 2024-03-19 | Microsoft Technology Licensing, Llc | Development system and method |
US11790181B2 (en) | 2020-08-19 | 2023-10-17 | International Business Machines Corporation | Extractive structured prediction in interactive systems |
US11556716B2 (en) * | 2020-08-24 | 2023-01-17 | Intuit Inc. | Intent prediction by machine learning with word and sentence features for routing user requests |
CN114036277B (zh) * | 2021-11-15 | 2024-08-23 | 深圳壹账通智能科技有限公司 | 一种对话机器人路由跳转方法、装置、电子设备和介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068423A1 (en) * | 2015-09-08 | 2017-03-09 | Apple Inc. | Intelligent automated assistant in a media environment |
US9734839B1 (en) * | 2012-06-20 | 2017-08-15 | Amazon Technologies, Inc. | Routing natural language commands to the appropriate applications |
US20170300831A1 (en) * | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
US20170301350A1 (en) * | 2012-05-23 | 2017-10-19 | Google Inc. | Customized voice action system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8738377B2 (en) | 2010-06-07 | 2014-05-27 | Google Inc. | Predicting and learning carrier phrases for speech input |
US9552422B2 (en) * | 2010-06-11 | 2017-01-24 | Doat Media Ltd. | System and method for detecting a search intent |
US9858342B2 (en) * | 2011-03-28 | 2018-01-02 | Doat Media Ltd. | Method and system for searching for applications respective of a connectivity mode of a user device |
US9691379B1 (en) | 2014-06-26 | 2017-06-27 | Amazon Technologies, Inc. | Selecting from multiple content sources |
JP6594646B2 (ja) * | 2015-04-10 | 2019-10-23 | ヴイストン株式会社 | ロボット及びロボット制御方法並びにロボットシステム |
CN105068661B (zh) | 2015-09-07 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
US10055390B2 (en) * | 2015-11-18 | 2018-08-21 | Google Llc | Simulated hyperlinks on a mobile device based on user intent and a centered selection of text |
US20180113606A1 (en) * | 2016-10-25 | 2018-04-26 | Evan Crawford | Application stitching, content generation using vehicle and predictive analytics |
US20180137401A1 (en) * | 2016-11-16 | 2018-05-17 | Microsoft Technology Licensing, Llc | Security systems and methods using an automated bot with a natural language interface for improving response times for security alert response and mediation |
US11189273B2 (en) * | 2017-06-29 | 2021-11-30 | Amazon Technologies, Inc. | Hands free always on near field wakeword solution |
US10552204B2 (en) * | 2017-07-07 | 2020-02-04 | Google Llc | Invoking an automated assistant to perform multiple tasks through an individual command |
-
2017
- 2017-10-29 US US15/796,804 patent/US10546584B2/en active Active
-
2018
- 2018-10-12 GB GB2005857.4A patent/GB2581660B/en active Active
- 2018-10-12 JP JP2020522666A patent/JP7220005B2/ja active Active
- 2018-10-12 CN CN201880070467.XA patent/CN111279296B/zh active Active
- 2018-10-12 WO PCT/IB2018/057925 patent/WO2019082017A1/en active Application Filing
-
2019
- 2019-11-06 US US16/675,232 patent/US10957324B2/en active Active
- 2019-12-08 US US16/706,750 patent/US10665242B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170301350A1 (en) * | 2012-05-23 | 2017-10-19 | Google Inc. | Customized voice action system |
US9734839B1 (en) * | 2012-06-20 | 2017-08-15 | Amazon Technologies, Inc. | Routing natural language commands to the appropriate applications |
US20170068423A1 (en) * | 2015-09-08 | 2017-03-09 | Apple Inc. | Intelligent automated assistant in a media environment |
US20170300831A1 (en) * | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
Also Published As
Publication number | Publication date |
---|---|
GB202005857D0 (en) | 2020-06-03 |
US20200075009A1 (en) | 2020-03-05 |
GB2581660B (en) | 2021-10-06 |
JP7220005B2 (ja) | 2023-02-09 |
WO2019082017A1 (en) | 2019-05-02 |
US10665242B2 (en) | 2020-05-26 |
GB2581660A (en) | 2020-08-26 |
US10546584B2 (en) | 2020-01-28 |
CN111279296A (zh) | 2020-06-12 |
US10957324B2 (en) | 2021-03-23 |
US20200111492A1 (en) | 2020-04-09 |
US20190130905A1 (en) | 2019-05-02 |
CN111279296B (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7220005B2 (ja) | 暗黙的ルーティングを使用したモジュール式会話の作成 | |
JP6947852B2 (ja) | 複数のコンピューティングデバイスを使用したインターホン式の通信 | |
US10832677B2 (en) | Coordinating the execution of a voice command across multiple connected devices | |
US10691735B2 (en) | Topic shift detector | |
US11184298B2 (en) | Methods and systems for improving chatbot intent training by correlating user feedback provided subsequent to a failed response to an initial user intent | |
US11361676B2 (en) | Augmented reality techniques for simultaneously learning multiple languages | |
JP6751806B2 (ja) | エンティティに関連する欠落情報を補足するために複数のデータストリームを使用するエンティティ認識 | |
CN112074898A (zh) | 用于意图推理的上下文无关文法的机器生成 | |
US20140195233A1 (en) | Distributed Speech Recognition System | |
US11721338B2 (en) | Context-based dynamic tolerance of virtual assistant | |
EP2757493A2 (en) | Natural language processing method and system | |
US20180090154A1 (en) | Normalizing the Speaking Volume of Participants in Meetings | |
CN114097030A (zh) | 区分语音命令 | |
US10891954B2 (en) | Methods and systems for managing voice response systems based on signals from external devices | |
US11114089B2 (en) | Customizing a voice-based interface using surrounding factors | |
US11677832B2 (en) | Voice activated device enabling | |
US10592832B2 (en) | Effective utilization of idle cycles of users | |
US20200219497A1 (en) | Methods and systems for managing voice response systems based on references to previous responses | |
KR102485339B1 (ko) | 차량의 음성 명령 처리 장치 및 방법 | |
EP3401795A1 (en) | Classifying conversational services | |
US20220180865A1 (en) | Runtime topic change analyses in spoken dialog contexts | |
US20220020371A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
CN116631396A (zh) | 控件的显示方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200501 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200507 |
|
RD12 | Notification of acceptance of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7432 Effective date: 20200501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221110 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221128 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20230118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7220005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |