JP7220005B2 - 暗黙的ルーティングを使用したモジュール式会話の作成 - Google Patents
暗黙的ルーティングを使用したモジュール式会話の作成 Download PDFInfo
- Publication number
- JP7220005B2 JP7220005B2 JP2020522666A JP2020522666A JP7220005B2 JP 7220005 B2 JP7220005 B2 JP 7220005B2 JP 2020522666 A JP2020522666 A JP 2020522666A JP 2020522666 A JP2020522666 A JP 2020522666A JP 7220005 B2 JP7220005 B2 JP 7220005B2
- Authority
- JP
- Japan
- Prior art keywords
- linguistic
- input
- content
- handlers
- handler
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 57
- 230000008451 emotion Effects 0.000 claims description 34
- 230000001755 vocal effect Effects 0.000 claims description 31
- 230000009471 action Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 claims description 24
- 238000004458 analytical method Methods 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 20
- 238000004590 computer program Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims 1
- 230000003993 interaction Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 9
- 238000003058 natural language processing Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 230000002996 emotional effect Effects 0.000 description 3
- 230000000670 limiting effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 239000008186 active pharmaceutical agent Substances 0.000 description 2
- 238000004378 air conditioning Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- HRANPRDGABOKNQ-ORGXEYTDSA-N (1r,3r,3as,3br,7ar,8as,8bs,8cs,10as)-1-acetyl-5-chloro-3-hydroxy-8b,10a-dimethyl-7-oxo-1,2,3,3a,3b,7,7a,8,8a,8b,8c,9,10,10a-tetradecahydrocyclopenta[a]cyclopropa[g]phenanthren-1-yl acetate Chemical compound C1=C(Cl)C2=CC(=O)[C@@H]3C[C@@H]3[C@]2(C)[C@@H]2[C@@H]1[C@@H]1[C@H](O)C[C@@](C(C)=O)(OC(=O)C)[C@@]1(C)CC2 HRANPRDGABOKNQ-ORGXEYTDSA-N 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/685—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/686—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Library & Information Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Description
- 言語入力をユーザから受信すること。
- 複数の言語内容識別器(verbal content identifiers)を言語入力に適用することであって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、適用すること。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
- 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングすることであって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、ルーティングすること。
- 言語入力をユーザから受信するためのコード命令。
- 複数の言語内容識別器を言語入力に適用するためのコード命令であって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、コード命令。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
- 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングするためのコード命令であって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、コード命令。
- 非一過性コンピュータ可読記憶媒体。
- 言語入力をユーザから受信するための第1のコード命令。
- 複数の言語内容識別器を言語入力に適用するための第2のコード命令であって、複数の言語内容識別器の各々が、言語入力から抽出された1つまたは複数の特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの言語入力の関連性を評価するように適応されている、第2のコード命令。1つまたは複数の特徴は、ユーザによって表されたインテントおよびユーザによって示されたエンティティのうちの1つまたは複数を含む。
- 複数の言語内容識別器によって計算された一致信頼値に基づいて、複数のハンドラのうちの選択された1つに言語入力をルーティングするための第3のコード命令であって、選択されたハンドラが、言語入力に応答して1つまたは複数のアクションを開始するように適応されている、第3のコード命令。
第1、第2、および第3のコード命令は、1つまたは複数のプロセッサによって非一過性コンピュータ可読記憶媒体から実行される。
- 1つまたは複数の音声解析ツールを使用して抽出されたユーザの感情。
- 1つまたは複数の音声解析ツールを使用して抽出されたユーザの情緒。
- 1つまたは複数の位置検出ツールから取得されたユーザの地理的位置。
- 1つまたは複数の以前の言語入力から抽出された1つまたは複数の以前の特徴。
言語入力のコンテキスト、ユーザのコンテキストなどがユーザの実際のインテントを大いに表すことがあるため、コンテキスト属性を使用することによって、選択されるハンドラの選択の精度を大幅に上げることができる。
- しきい値。
- 言語入力を処理するための各ハンドラの能力。
- 特徴のうちの1つまたは複数を抽出するために複数の言語内容識別器のうちの1つまたは複数によって適用される解析の説明。
- 1つまたは複数の以前の言語入力に関連するルーティング情報。
- 複数のハンドラのうちの少なくとも別の1つから取得された情報。
特に、以前の言語入力またはユーザとの対話セッションの対話フローあるいはその両方に関して、ハンドラの操作上のコンテキストがユーザのインテントを大いに表すことがあるため、操作上の属性を使用することによって、選択されるハンドラの選択の精度を大幅に上げることができる。
Claims (17)
- 言語入力を複数のハンドラのうちの1つにルーティングする方法であって、
プロセッサが、
言語入力をユーザから受信することと、
複数の言語内容識別器を前記言語入力に適用することであって、前記複数の言語内容識別器の各々が、前記言語入力から抽出された少なくとも1つの特徴に対して一致信頼値を計算することによって、複数のハンドラのうちの各1つとの前記言語入力の関連性を評価するように適応されており、前記少なくとも1つの特徴が、前記ユーザによって表されたインテントおよび前記ユーザによって示されたエンティティのうちの少なくとも1つを含んでいる、前記適用することと、
前記複数の言語内容識別器によって計算された一致信頼値に基づいて、前記複数のハンドラのうちの選択された1つに前記言語入力をルーティングすることであって、前記ルーティングで用いる前記一致信頼値は、ハンドラに対し定義された少なくとも1つの定義済みの特徴の異なるものについて計算された複数の一致信頼値を集計することによって計算された、集計された一致信頼値であり、前記選択されたハンドラが、前記言語入力に応答して少なくとも1つのアクションを開始するように適応されている、前記ルーティングすることと
を含み、前記少なくとも1つの定義済みの特徴に従って前記関連性を評価するように前記各言語内容識別器を適応させることによって、前記複数の言語内容識別器の各々が前記複数のハンドラのうちの各1つに関連付けられ、前記少なくとも1つの特徴に対する前記一致信頼値が、前記少なくとも1つの特徴が各前記定義済みの特徴に一致する確率を示す、方法。 - 前記言語入力が、テキストの言語入力および発話の言語入力から成る群の少なくとも1つの要素を含んでいる、請求項1に記載の方法。
- 前記言語入力を複数のセグメントにセグメント化することと、前記各セグメントに対して前記複数の言語内容識別器によって計算された前記一致信頼値に従って、前記複数のセグメントの各々を前記複数のハンドラのうちの1つにルーティングすることとをさらに含む、請求項1または2に記載の方法。
- 少なくとも1つの言語解析ツールを使用して前記言語入力から前記インテントが抽出され、前記インテントが、意思、目的、対象、および目標から成る群の要素である、請求項1~3のいずれか1項に記載の方法。
- 少なくとも1つの言語解析ツールを使用して前記エンティティが前記言語入力から抽出される、請求項1~4のいずれか1項に記載の方法。
- 前記複数の言語内容識別器のうちの少なくとも1つによって提供された少なくとも1つのコンテキスト属性に基づいて前記選択されるハンドラを選択することをさらに含んでいる、請求項1~5のいずれか1項に記載の方法。
- 前記少なくとも1つのコンテキスト属性が、
少なくとも1つの音声解析ツールを使用して抽出された前記ユーザの感情と、
少なくとも1つの音声解析ツールを使用して抽出された前記ユーザの情緒と、
少なくとも1つの位置検出ツールから取得された前記ユーザの地理的位置と、
少なくとも1つの以前の言語入力から抽出された少なくとも1つの以前の特徴と
のうちの少なくとも1つを含んでいる、請求項6に記載の方法。 - 前記複数の言語内容識別器のうちの少なくとも1つによって抽出された少なくとも1つの強制のエンティティの検出に基づいて、前記選択されるハンドラを選択することをさらに含み、前記少なくとも1つの強制のエンティティが、前記インテントと共に前記言語入力に現れるように事前に定義される、請求項6に記載の方法。
- 前記複数の言語内容識別器のうちの少なくとも1つによって提供された少なくとも1つの操作上の属性に基づいて前記選択されるハンドラを選択することをさらに含んでいる、請求項1~8のいずれか1項に記載の方法。
- 前記少なくとも1つの操作上の属性が、
しきい値と、
前記言語入力を処理するための前記各ハンドラの能力と、
前記少なくとも1つの特徴を抽出するために前記複数の言語内容識別器のうちの少なくとも1つによって適用される解析の説明と、
少なくとも1つの以前の言語入力に関連するルーティング情報と、
前記複数のハンドラのうちの少なくとも別の1つから取得された情報と
のうちの少なくとも1つを含んでいる、請求項9に記載の方法。 - 前記複数の言語内容識別器のうちの少なくとも一部に割り当てられた優先度に従って前記選択されるハンドラを選択することをさらに含んでいる、請求項1~10のいずれか1項に記載の方法。
- 定義済みのしきい値を超えることができない前記信頼値を提示する、前記複数の言語内容識別器のうちの1つに関連付けられた前記複数のハンドラのうちの少なくとも1つをフィルタで除去することをさらに含んでいる、請求項1~11のいずれか1項に記載の方法。
- 前記言語入力を処理できないとして、前記複数の言語内容識別器のうちの関連付けられた1つによって示された、前記複数のハンドラのうちの少なくとも1つをフィルタで除去することをさらに含んでいる、請求項1~12のいずれか1項に記載の方法。
- 前記複数の言語内容識別器のうちの複数の言語内容識別器によって類似する前記信頼値が計算された場合に、前記複数のハンドラのうちの最近のハンドラに前記言語入力をルーティングすることをさらに含んでおり、前記最近のハンドラが、前記複数の言語内容識別器に関連付けられたハンドラのグループ内の、以前の言語入力のルーティング先だった直近のハンドラである、請求項1~13のいずれか1項に記載の方法。
- 前記複数の言語内容識別器によって計算された前記信頼値が定義済みのしきい値を超えることができない場合に、前記複数のハンドラのうちのデフォルトのハンドラに前記言語入力をルーティングすることをさらに含んでいる、請求項1~14のいずれか1項に記載の方法。
- 言語入力を複数のハンドラのうちの1つにルーティングするためのシステムであって、
コンピュータ・プログラムを実行するように適応された少なくとも1つのプロセッサを備えており、前記コンピュータ・プログラムは、前記プロセッサに、請求項1~請求項15のいずれか1項に記載の方法の各ステップを実行させる、システム。 - 言語入力を複数のハンドラのうちの1つにルーティングするためのコンピュータ・プログラムであって、プロセッサに、請求項1~請求項15のいずれか一項に記載の方法の各ステップを実行させる、コンピュータ・プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/796,804 | 2017-10-29 | ||
US15/796,804 US10546584B2 (en) | 2017-10-29 | 2017-10-29 | Creating modular conversations using implicit routing |
PCT/IB2018/057925 WO2019082017A1 (en) | 2017-10-29 | 2018-10-12 | CREATING MODULAR CONVERSATIONS USING IMPLIED ROUTING |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021501356A JP2021501356A (ja) | 2021-01-14 |
JP7220005B2 true JP7220005B2 (ja) | 2023-02-09 |
Family
ID=66244202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020522666A Active JP7220005B2 (ja) | 2017-10-29 | 2018-10-12 | 暗黙的ルーティングを使用したモジュール式会話の作成 |
Country Status (5)
Country | Link |
---|---|
US (3) | US10546584B2 (ja) |
JP (1) | JP7220005B2 (ja) |
CN (1) | CN111279296B (ja) |
GB (1) | GB2581660B (ja) |
WO (1) | WO2019082017A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10666583B2 (en) * | 2017-11-27 | 2020-05-26 | Baidu Usa Llc | System and method for visually understanding and programming conversational agents of electronic devices |
US10754885B2 (en) * | 2017-11-27 | 2020-08-25 | Baidu Usa Llc | System and method for visually searching and debugging conversational agents of electronic devices |
US11348576B1 (en) * | 2017-12-06 | 2022-05-31 | Amazon Technologies, Inc. | Universal and user-specific command processing |
US11447127B2 (en) * | 2019-06-10 | 2022-09-20 | Honda Motor Co., Ltd. | Methods and apparatuses for operating a self-driving vehicle |
US10812656B1 (en) | 2019-06-13 | 2020-10-20 | Salesboost, Llc | System, device, and method of performing data analytics for advising a sales representative during a voice call |
US20210064984A1 (en) * | 2019-08-29 | 2021-03-04 | Sap Se | Engagement prediction using machine learning in digital workplace |
US11494166B2 (en) | 2020-03-30 | 2022-11-08 | Nuance Communications, Inc. | Omni-channel conversational application development system and method |
US11790181B2 (en) | 2020-08-19 | 2023-10-17 | International Business Machines Corporation | Extractive structured prediction in interactive systems |
US11556716B2 (en) * | 2020-08-24 | 2023-01-17 | Intuit Inc. | Intent prediction by machine learning with word and sentence features for routing user requests |
CN114036277B (zh) * | 2021-11-15 | 2024-08-23 | 深圳壹账通智能科技有限公司 | 一种对话机器人路由跳转方法、装置、电子设备和介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170068423A1 (en) | 2015-09-08 | 2017-03-09 | Apple Inc. | Intelligent automated assistant in a media environment |
US20170301350A1 (en) | 2012-05-23 | 2017-10-19 | Google Inc. | Customized voice action system |
US20170300831A1 (en) | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8738377B2 (en) | 2010-06-07 | 2014-05-27 | Google Inc. | Predicting and learning carrier phrases for speech input |
US9552422B2 (en) * | 2010-06-11 | 2017-01-24 | Doat Media Ltd. | System and method for detecting a search intent |
US9858342B2 (en) * | 2011-03-28 | 2018-01-02 | Doat Media Ltd. | Method and system for searching for applications respective of a connectivity mode of a user device |
US9734839B1 (en) * | 2012-06-20 | 2017-08-15 | Amazon Technologies, Inc. | Routing natural language commands to the appropriate applications |
US9691379B1 (en) | 2014-06-26 | 2017-06-27 | Amazon Technologies, Inc. | Selecting from multiple content sources |
JP6594646B2 (ja) * | 2015-04-10 | 2019-10-23 | ヴイストン株式会社 | ロボット及びロボット制御方法並びにロボットシステム |
CN105068661B (zh) | 2015-09-07 | 2018-09-07 | 百度在线网络技术(北京)有限公司 | 基于人工智能的人机交互方法和系统 |
US10055390B2 (en) * | 2015-11-18 | 2018-08-21 | Google Llc | Simulated hyperlinks on a mobile device based on user intent and a centered selection of text |
US20180113606A1 (en) * | 2016-10-25 | 2018-04-26 | Evan Crawford | Application stitching, content generation using vehicle and predictive analytics |
US20180137401A1 (en) * | 2016-11-16 | 2018-05-17 | Microsoft Technology Licensing, Llc | Security systems and methods using an automated bot with a natural language interface for improving response times for security alert response and mediation |
US11189273B2 (en) * | 2017-06-29 | 2021-11-30 | Amazon Technologies, Inc. | Hands free always on near field wakeword solution |
US10552204B2 (en) * | 2017-07-07 | 2020-02-04 | Google Llc | Invoking an automated assistant to perform multiple tasks through an individual command |
-
2017
- 2017-10-29 US US15/796,804 patent/US10546584B2/en active Active
-
2018
- 2018-10-12 GB GB2005857.4A patent/GB2581660B/en active Active
- 2018-10-12 WO PCT/IB2018/057925 patent/WO2019082017A1/en active Application Filing
- 2018-10-12 JP JP2020522666A patent/JP7220005B2/ja active Active
- 2018-10-12 CN CN201880070467.XA patent/CN111279296B/zh active Active
-
2019
- 2019-11-06 US US16/675,232 patent/US10957324B2/en active Active
- 2019-12-08 US US16/706,750 patent/US10665242B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170301350A1 (en) | 2012-05-23 | 2017-10-19 | Google Inc. | Customized voice action system |
US20170068423A1 (en) | 2015-09-08 | 2017-03-09 | Apple Inc. | Intelligent automated assistant in a media environment |
US20170300831A1 (en) | 2016-04-18 | 2017-10-19 | Google Inc. | Automated assistant invocation of appropriate agent |
Also Published As
Publication number | Publication date |
---|---|
US10546584B2 (en) | 2020-01-28 |
US20190130905A1 (en) | 2019-05-02 |
WO2019082017A1 (en) | 2019-05-02 |
JP2021501356A (ja) | 2021-01-14 |
US10957324B2 (en) | 2021-03-23 |
US20200111492A1 (en) | 2020-04-09 |
CN111279296B (zh) | 2024-01-26 |
CN111279296A (zh) | 2020-06-12 |
US20200075009A1 (en) | 2020-03-05 |
GB2581660B (en) | 2021-10-06 |
GB2581660A (en) | 2020-08-26 |
US10665242B2 (en) | 2020-05-26 |
GB202005857D0 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7220005B2 (ja) | 暗黙的ルーティングを使用したモジュール式会話の作成 | |
EP3389044B1 (en) | Management layer for multiple intelligent personal assistant services | |
US10691735B2 (en) | Topic shift detector | |
US11361676B2 (en) | Augmented reality techniques for simultaneously learning multiple languages | |
US10255917B2 (en) | Coordinating the execution of a voice command across multiple connected devices | |
CN110415679B (zh) | 语音纠错方法、装置、设备和存储介质 | |
EP3622510A1 (en) | Intercom-style communication using multiple computing devices | |
US20140361973A1 (en) | System and method for multimodal human-vehicle interaction and belief tracking | |
US9454964B2 (en) | Interfacing device and method for supporting speech dialogue service | |
US10204292B2 (en) | User terminal device and method of recognizing object thereof | |
US20190189116A1 (en) | Pronunciation analysis and correction feedback | |
US20180218728A1 (en) | Domain-Specific Speech Recognizers in a Digital Medium Environment | |
US20220068272A1 (en) | Context-based dynamic tolerance of virtual assistant | |
CN109923515A (zh) | 使用网络可寻址设备创建电影化的讲故事体验 | |
KR20150077580A (ko) | 음성 인식 기반 서비스 제공 방법 및 그 장치 | |
US20180165275A1 (en) | Identification and Translation of Idioms | |
US11677832B2 (en) | Voice activated device enabling | |
EP3401795A1 (en) | Classifying conversational services | |
US20220180865A1 (en) | Runtime topic change analyses in spoken dialog contexts | |
EP3816774A1 (en) | Information processing device for executing plurality of processes in parallel | |
JP6612674B2 (ja) | タスク生成方法、タスク生成装置およびそのプログラム | |
US20230276196A1 (en) | Contextual enhancement of user service inquiries | |
WO2020166183A1 (ja) | 情報処理装置及び情報処理方法 | |
US20220020371A1 (en) | Information processing apparatus, information processing system, information processing method, and program | |
CN116631396A (zh) | 控件的显示方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200501 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20200507 |
|
RD12 | Notification of acceptance of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7432 Effective date: 20200501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20220502 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220621 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221110 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221128 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20230118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7220005 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |