JP7386878B2 - アシスタントの応答を動的に適応させること - Google Patents
アシスタントの応答を動的に適応させること Download PDFInfo
- Publication number
- JP7386878B2 JP7386878B2 JP2021544624A JP2021544624A JP7386878B2 JP 7386878 B2 JP7386878 B2 JP 7386878B2 JP 2021544624 A JP2021544624 A JP 2021544624A JP 2021544624 A JP2021544624 A JP 2021544624A JP 7386878 B2 JP7386878 B2 JP 7386878B2
- Authority
- JP
- Japan
- Prior art keywords
- intent
- response
- user
- intimacy
- automated assistant
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004044 response Effects 0.000 title claims description 238
- 238000000034 method Methods 0.000 claims description 90
- 230000003993 interaction Effects 0.000 claims description 72
- 238000010801 machine learning Methods 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 description 25
- 238000012549 training Methods 0.000 description 20
- 230000009471 action Effects 0.000 description 17
- 230000008859 change Effects 0.000 description 7
- 230000015654 memory Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000001816 cooling Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000003607 modifier Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
- G06F9/453—Help systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
ィブ化させることを含むことができる。たとえば、自動アシスタント100を呼び出すことは、1つまたは複数のローカルエンジン110および/またはクラウドベースの自動アシスタントコンポーネント114に、どの呼出しフレーズが検出されたかに基づいてオーディオデータフレームを、および/または1つもしくは複数の後続のオーディオデータをさらに処理させることを含むことができる(一方、呼び出す前は、オーディオデータフレームのそれ以上の処理は発生していない)。
102 クライアントコンピューティングデバイス
104 自動アシスタントクライアント
106 親密性エンジン
107 自動アシスタント
108 機械学習モデル
110 ローカルエンジン
114 クラウドベースの自動アシスタントコンポーネント
116 クラウドベースのTTSモジュール
118 クラウドベースのSTTモジュール
120 自然言語プロセッサ
122 ダイアログ状態トラッカ
124 ダイアログマネージャ
200 プロセス
300 プロセス
410 コンピューティングデバイス
412 バスサブシステム
414 プロセッサ
416 ネットワークインターフェースサブシステム
420 ユーザインターフェース出力デバイス
422 ユーザインターフェース入力デバイス
424 ストレージサブシステム
425 メモリサブシステム
426 ファイルストレージサブシステム
430 ランダムアクセスメモリ(「RAM」)
432 読取り専用メモリ(「ROM」)
Claims (16)
- ユーザ入力を受信するステップであって、前記ユーザ入力が、クライアントデバイスの自動アシスタントインターフェースにおいてユーザによって提供され、前記自動アシスタントインターフェースが、前記クライアントデバイスおよび/または1つもしくは複数のリモートコンピューティングデバイス上で実行される自動アシスタントと相互作用するためのインターフェースである、ステップと、
前記ユーザ入力に関連付けられる少なくとも1つのインテントを決定するために前記ユーザ入力を処理するステップであって、前記少なくとも1つのインテントが、少なくとも1つのスマートデバイスを制御するために、前記ユーザ入力において指定された所与のインテントを含む、ステップと、
前記少なくとも1つのインテントについての親密性尺度を生成するステップであって、
前記少なくとも1つのインテントについての前記親密性尺度を生成するステップが、前記親密性尺度を生成するために、機械学習モデルを使用して、複数のパラメータを処理するステップを含み、
前記親密性尺度を生成するために、前記機械学習モデルを使用して処理される前記複数のパラメータが、前記少なくとも1つのインテントについて、前記自動アシスタントとの前記ユーザの過去の相互作用に基づく1つまたは複数のインテント固有パラメータを含み、
前記1つまたは複数のインテント固有パラメータは、前記少なくとも1つのインテントとインテントの記憶された分類法で前記少なくとも1つのインテントに関連して定義される1つまたは複数の追加のインテントとについての前記自動アシスタントとの前記ユーザの過去の相互作用の総数を含む、ステップと、
前記親密性尺度に基づいて、および前記少なくとも1つのインテントに基づいて、前記ユーザ入力に対する前記自動アシスタントの応答を決定するステップと、
前記クライアントデバイスに前記決定された応答をレンダリングさせるステップと
を含む、1つまたは複数のプロセッサによって実装される方法。 - 前記親密性尺度に基づいて、および前記決定された少なくとも1つのインテントに基づいて、前記応答を決定するステップが、
前記親密性尺度がしきい値を満たすかどうかを決定するステップを含み、
前記親密性尺度が前記しきい値を満たさない場合、
前記応答に、
前記インテントに応答するコンピュータ生成のスピーチ、または
前記クライアントデバイスが前記決定された応答をレンダリングするときにコンピュータ生成のスピーチに変換されるテキストを含め、
前記親密性尺度が前記しきい値を満たしている場合、
コンピュータ生成のスピーチおよびテキストを前記応答から省略する、請求項1に記載の方法。 - 前記親密性尺度に基づいて、および前記決定された少なくとも1つのインテントに基づいて、前記応答を決定するステップが、
前記決定されたインテントに基づいて初期応答を決定するステップであって、前記初期応答が、第1のバイト数を含む、ステップと、
前記親密性尺度がしきい値を満たしているとの決定に応答して、
簡略化された応答を生成するために前記初期応答を修正するステップであって、前記簡略化された応答が、前記第1のバイト数よりも少ない第2のバイト数を含む、ステップと
を含む、請求項1または2のいずれか一項に記載の方法。 - 前記簡略化された応答を生成するために前記初期応答を修正するステップが、
前記初期応答から、コンピュータ生成のスピーチ、または前記クライアントデバイスが前記決定された応答をレンダリングするときにコンピュータ生成のスピーチに変換されるテキストを削除するステップ、
前記テキスト内の名詞を、前記名詞よりも文字数が少ない代名詞に置き換えるステップ、および/または
前記テキストを前記テキストの短縮バージョンに変換するためにテキストの要約を実行するステップ
を含む、請求項3に記載の方法。 - 前記応答を決定するステップが、前記クライアントデバイスから離れた前記自動アシスタントの1つまたは複数のサーバにおいて発生し、前記クライアントデバイスに前記応答をレンダリングさせるステップが、1つまたは複数のネットワークを介して前記サーバのうちの1つまたは複数によって前記応答を前記クライアントデバイスに送信するステップを含む、請求項1から4のいずれか一項に記載の方法。
- 前記ユーザ入力が、話されたユーザ入力であり、
前記話されたユーザ入力が、前記自動アシスタントにアクセス可能なユーザプロファイルに対応すると決定するために、前記話されたユーザ入力、または前記話されたユーザ入力に先行する話された呼出しを処理するステップと、
前記話されたユーザ入力が、前記ユーザプロファイルに対応するとの決定に応答して、
前記ユーザプロファイルに関連付けて記憶されたデータに基づいて、前記複数のパラメータにおける1つまたは複数のパラメータを決定するステップと
をさらに含む、請求項1から5のいずれか一項に記載の方法。 - 前記決定されたインテントに関係なくそれぞれ決定される1つまたは複数のインテントにとらわれないパラメータを決定するステップ
をさらに含み、
前記親密性尺度を生成する際に前記機械学習モデルを使用して処理される前記パラメータが、前記1つまたは複数のインテントにとらわれないパラメータをさらに含む、請求項1から6のいずれか一項に記載の方法。 - 前記1つまたは複数のインテントにとらわれないパラメータを決定するステップが、
前記決定された少なくとも1つのインテントに対応しない過去の相互作用を含む、前記自動アシスタントとの前記ユーザの追加の過去の相互作用に基づいて、前記インテントにとらわれないパラメータのうちの少なくとも1つを決定するステップ
を含む、請求項7に記載の方法。 - 前記1つまたは複数のインテントにとらわれないパラメータを決定するステップが、前記ユーザと前記自動アシスタントとの間の前記追加の過去の相互作用の量に基づいて、前記インテントにとらわれないパラメータのうちの少なくとも1つを決定するステップを含む、請求項8に記載の方法。
- 前記ユーザと前記自動アシスタントとの間の過去の相互作用の前記量に基づいて決定される前記1つまたは複数のインテントにとらわれないパラメータが、前記追加の過去の相互作用の総数および/または前記追加の過去の相互作用の頻度に基づく1つまたは複数のインテントにとらわれないパラメータを含む、請求項9に記載の方法。
- 前記1つまたは複数のインテント固有のパラメータを決定するステップが、前記少なくとも1つのインテントについての前記ユーザと前記自動アシスタントとの間の前記過去の相互作用の量および/または前記少なくとも1つのインテントについての前記ユーザと前記自動アシスタントとの間の最新の相互作用からの時間の長さに基づいて、前記インテント固有のパラメータのうちの少なくとも1つを決定するステップを含む、請求項1から10のいずれか一項に記載の方法。
- 前記1つまたは複数のインテント固有のパラメータが、複数のインテント固有のパラメータであって、前記インテントについての前記ユーザと前記自動アシスタントとの間の前記過去の相互作用の前記量に基づく少なくとも1つを含み、任意で、前記インテントについての前記ユーザと前記自動アシスタントとの間の前記最新の相互作用からの時間の前記長さに基づく少なくとも追加の1つを含む、複数のインテント固有のパラメータを含む、請求項11に記載の方法。
- 前記少なくとも1つのインテントが、前記ユーザ入力によって参照される1つまたは複数のインテントのみを含む、請求項1から12のいずれか一項に記載の方法。
- 前記親密性尺度に基づいて、および前記少なくとも1つのインテントに基づいて、前記応答を決定するステップが、
前記親密性尺度がしきい値を満たしているとの決定に応答して、
前記応答から、前記少なくとも1つのスマートデバイスの前記制御の値を要求するプロンプトを省略するステップを含み、前記方法が、
前記所与のインテントに応答し、前記プロンプトを含んだ以前の応答に対する、前記ユーザの1つまたは複数の以前のユーザ入力に基づいて、前記少なくとも1つのスマートデバイスの前記制御のための前記値を自動的に生成するステップと、
前記自動生成された値に基づく1つまたは複数のコマンドを送信するステップであって、前記1つまたは複数のコマンドを送信すると、前記自動生成された値に基づいて、前記少なくとも1つのスマートデバイスが制御される、ステップと
をさらに含む、請求項1から13のいずれか一項に記載の方法。 - 請求項1から14のいずれか一項に記載の方法を実行するための1つまたは複数のプロセッサを備える、システム。
- 命令を備える、コンピュータ可読ストレージ媒体であって、前記命令は、1つまたは複数のプロセッサによって実行されると、前記1つまたは複数のプロセッサに、請求項1から14のいずれか一項に記載の方法を実行させる、コンピュータ可読ストレージ媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2019/020394 WO2020180286A1 (en) | 2019-03-01 | 2019-03-01 | Dynamically adapting assistant responses |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022522104A JP2022522104A (ja) | 2022-04-14 |
JP7386878B2 true JP7386878B2 (ja) | 2023-11-27 |
Family
ID=65763906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021544624A Active JP7386878B2 (ja) | 2019-03-01 | 2019-03-01 | アシスタントの応答を動的に適応させること |
Country Status (7)
Country | Link |
---|---|
US (2) | US11875790B2 (ja) |
EP (1) | EP3724874B1 (ja) |
JP (1) | JP7386878B2 (ja) |
KR (1) | KR20210134741A (ja) |
CN (2) | CN113557566B (ja) |
AU (1) | AU2019432912B2 (ja) |
WO (1) | WO2020180286A1 (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
KR20240132105A (ko) | 2013-02-07 | 2024-09-02 | 애플 인크. | 디지털 어시스턴트를 위한 음성 트리거 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US20180336275A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Intelligent automated assistant for media exploration |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10978069B1 (en) * | 2019-03-18 | 2021-04-13 | Amazon Technologies, Inc. | Word selection for natural language interface |
US10762890B1 (en) | 2019-08-19 | 2020-09-01 | Voicify, LLC | Development of voice and other interaction applications |
US10614800B1 (en) | 2019-08-19 | 2020-04-07 | Voicify, LLC | Development of voice and other interaction applications |
US11508365B2 (en) * | 2019-08-19 | 2022-11-22 | Voicify, LLC | Development of voice and other interaction applications |
CN111243587A (zh) * | 2020-01-08 | 2020-06-05 | 北京松果电子有限公司 | 语音交互方法、装置、设备及存储介质 |
US11270080B2 (en) * | 2020-01-15 | 2022-03-08 | International Business Machines Corporation | Unintended bias detection in conversational agent platforms with machine learning model |
US11550605B2 (en) * | 2020-06-30 | 2023-01-10 | Kasisto, Inc. | Building and managing cohesive interaction for virtual assistants |
US11531821B2 (en) * | 2020-08-13 | 2022-12-20 | Salesforce, Inc. | Intent resolution for chatbot conversations with negation and coreferences |
US11935527B2 (en) | 2020-10-23 | 2024-03-19 | Google Llc | Adapting automated assistant functionality based on generated proficiency measure(s) |
US11978445B1 (en) * | 2021-03-30 | 2024-05-07 | Amazon Technologies, Inc. | Confidence scoring for selecting tones and text of voice browsing conversations |
US11776542B1 (en) | 2021-03-30 | 2023-10-03 | Amazon Technologies, Inc. | Selecting dialog acts using controlled randomness and offline optimization |
US20230056003A1 (en) * | 2021-08-23 | 2023-02-23 | International Business Machines Corporation | Automated document adaptation based on topic classification |
US11804215B1 (en) * | 2022-04-29 | 2023-10-31 | Apple Inc. | Sonic responses |
CN115334024B (zh) * | 2022-08-01 | 2024-07-09 | 鼎捷软件股份有限公司 | 即时响应系统以及即时响应方法 |
US20240169163A1 (en) * | 2022-11-23 | 2024-05-23 | Allstate Insurance Company | Systems and methods for user classification with respect to a chatbot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107614A (ja) | 2008-10-29 | 2010-05-13 | Mitsubishi Motors Corp | 音声案内応答方法 |
JP2016071050A (ja) | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
US20160210116A1 (en) | 2015-01-19 | 2016-07-21 | Ncsoft Corporation | Methods and systems for recommending responsive sticker |
JP2018021953A (ja) | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7920682B2 (en) * | 2001-08-21 | 2011-04-05 | Byrne William J | Dynamic interactive voice interface |
CN103761083B (zh) * | 2013-12-31 | 2017-04-05 | 华为技术有限公司 | 一种数据分享方法、装置及终端 |
JP6257368B2 (ja) * | 2014-02-18 | 2018-01-10 | シャープ株式会社 | 情報処理装置 |
US20160092160A1 (en) | 2014-09-26 | 2016-03-31 | Intel Corporation | User adaptive interfaces |
US10614799B2 (en) * | 2014-11-26 | 2020-04-07 | Voicebox Technologies Corporation | System and method of providing intent predictions for an utterance prior to a system detection of an end of the utterance |
KR101751113B1 (ko) * | 2015-06-15 | 2017-06-27 | 포항공과대학교 산학협력단 | 기억 능력을 이용하는 다중 사용자 기반의 대화 관리 방법 및 이를 수행하는 장치 |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
KR102453603B1 (ko) | 2015-11-10 | 2022-10-12 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
EP4030295B1 (en) | 2016-04-18 | 2024-06-05 | Google LLC | Automated assistant invocation of appropriate agent |
US10613213B2 (en) * | 2016-05-13 | 2020-04-07 | Google Llc | Systems, methods, and devices for utilizing radar with smart devices |
US10049663B2 (en) * | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US20180054523A1 (en) * | 2016-08-16 | 2018-02-22 | Rulai, Inc. | Method and system for context sensitive intelligent virtual agents |
US11086593B2 (en) * | 2016-08-26 | 2021-08-10 | Bragi GmbH | Voice assistant for wireless earpieces |
US10860898B2 (en) * | 2016-10-16 | 2020-12-08 | Ebay Inc. | Image analysis and prediction based visual search |
US10467510B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Intelligent assistant |
GB2565315B (en) * | 2017-08-09 | 2022-05-04 | Emotech Ltd | Robots, methods, computer programs, computer-readable media, arrays of microphones and controllers |
CN107978311B (zh) * | 2017-11-24 | 2020-08-25 | 腾讯科技(深圳)有限公司 | 一种语音数据处理方法、装置以及语音交互设备 |
WO2019128541A1 (en) * | 2017-12-31 | 2019-07-04 | Midea Group Co., Ltd. | Method and system for controlling multiple home devices |
KR20200098079A (ko) * | 2019-02-11 | 2020-08-20 | 현대자동차주식회사 | 대화 시스템 및 대화 처리 방법 |
US20200279553A1 (en) * | 2019-02-28 | 2020-09-03 | Microsoft Technology Licensing, Llc | Linguistic style matching agent |
-
2019
- 2019-03-01 WO PCT/US2019/020394 patent/WO2020180286A1/en unknown
- 2019-03-01 JP JP2021544624A patent/JP7386878B2/ja active Active
- 2019-03-01 CN CN201980092024.5A patent/CN113557566B/zh active Active
- 2019-03-01 KR KR1020217031803A patent/KR20210134741A/ko active Search and Examination
- 2019-03-01 US US16/621,371 patent/US11875790B2/en active Active
- 2019-03-01 EP EP19710974.7A patent/EP3724874B1/en active Active
- 2019-03-01 AU AU2019432912A patent/AU2019432912B2/en active Active
- 2019-03-01 CN CN202410347745.9A patent/CN118351843A/zh active Pending
-
2024
- 2024-01-12 US US18/412,004 patent/US20240153502A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107614A (ja) | 2008-10-29 | 2010-05-13 | Mitsubishi Motors Corp | 音声案内応答方法 |
JP2016071050A (ja) | 2014-09-29 | 2016-05-09 | シャープ株式会社 | 音声対話装置、音声対話システム、端末、音声対話方法およびコンピュータを音声対話装置として機能させるためのプログラム |
US20160210116A1 (en) | 2015-01-19 | 2016-07-21 | Ncsoft Corporation | Methods and systems for recommending responsive sticker |
JP2018021953A (ja) | 2016-08-01 | 2018-02-08 | トヨタ自動車株式会社 | 音声対話装置および音声対話方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020180286A1 (en) | 2020-09-10 |
AU2019432912B2 (en) | 2022-10-06 |
CN113557566A (zh) | 2021-10-26 |
EP3724874A1 (en) | 2020-10-21 |
US11875790B2 (en) | 2024-01-16 |
EP3724874B1 (en) | 2024-07-17 |
CN113557566B (zh) | 2024-04-12 |
JP2022522104A (ja) | 2022-04-14 |
US20210082420A1 (en) | 2021-03-18 |
AU2019432912A1 (en) | 2021-08-05 |
KR20210134741A (ko) | 2021-11-10 |
CN118351843A (zh) | 2024-07-16 |
US20240153502A1 (en) | 2024-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7386878B2 (ja) | アシスタントの応答を動的に適応させること | |
CN111033492B (zh) | 为自动化助手提供命令束建议 | |
EP3788620B1 (en) | Supplementing voice inputs to an automated assistant according to selected suggestions | |
KR102599607B1 (ko) | 자동화된 어시스턴트를 호출하기 위한 다이내믹 및/또는 컨텍스트 특정 핫워드 | |
JP7418563B2 (ja) | オンデバイスの機械学習モデルの訓練のための自動化アシスタントの機能の訂正の使用 | |
US11482217B2 (en) | Selectively activating on-device speech recognition, and using recognized text in selectively activating on-device NLU and/or on-device fulfillment | |
US11217247B2 (en) | Determining whether to automatically resume first automated assistant session upon cessation of interrupting second session | |
KR20220166848A (ko) | 핫워드/키워드 검출을 위한 사용자 중재 | |
JP2022539674A (ja) | 特定話者スピーチモデルを使用した話者認識 | |
US20230237312A1 (en) | Reinforcement learning techniques for selecting a software policy network and autonomously controlling a corresponding software client based on selected policy network | |
CN115769298A (zh) | 缺少自动化助理应用编程接口功能的外部应用的自动化助理控制 | |
KR20230147157A (ko) | 어시스턴트 명령(들)의 컨텍스트적 억제 | |
CN114981772A (zh) | 在不需要自动助理的基于语音的调用的情况下基于检测到的环境状况来选择性地调用自动助理 | |
US20240304184A1 (en) | Controlling a style of large language model(s) during ongoing dialog(s) through utilization of natural language based response style tag(s) | |
KR20230153450A (ko) | 자동 스피치 인식의 로컬 실행을 위한 디바이스 중재 | |
KR20230025907A (ko) | 생성된 능숙도 측정치에 기초하여 자동화된 어시스턴트 기능 조정 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210930 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210930 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220920 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230410 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230810 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231016 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7386878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |