JP7348288B2 - 音声対話の方法、装置、及びシステム - Google Patents
音声対話の方法、装置、及びシステム Download PDFInfo
- Publication number
- JP7348288B2 JP7348288B2 JP2021537969A JP2021537969A JP7348288B2 JP 7348288 B2 JP7348288 B2 JP 7348288B2 JP 2021537969 A JP2021537969 A JP 2021537969A JP 2021537969 A JP2021537969 A JP 2021537969A JP 7348288 B2 JP7348288 B2 JP 7348288B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- audio information
- terminal
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims description 104
- 238000000034 method Methods 0.000 title claims description 49
- 230000001815 facial effect Effects 0.000 claims description 46
- 238000012545 processing Methods 0.000 claims description 25
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 11
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000003786 synthesis reaction Methods 0.000 claims description 4
- 238000013461 design Methods 0.000 description 18
- 230000005236 sound signal Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 9
- 230000007704 transition Effects 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000012567 pattern recognition method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002028 premature Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000004549 pulsed laser deposition Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000699 topical effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/4401—Bootstrapping
- G06F9/4418—Suspend and resume; Hibernate and awake
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Game Theory and Decision Science (AREA)
- Business, Economics & Management (AREA)
- General Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Artificial Intelligence (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Description
aは、顔画像の横方向(左右)のずれ角度に等しく(図中、顔が右向きの場合、aの値は負の数であり、顔が左向きの場合、aの値は正の数である)、
bは、スクリーンの法線方向と、話者の音源と音声アシスタントの視覚的焦点との間の接続線であって、水平面上にある投影面との間の包含角度に等しく(図において、顔が、音声アシスタントの視覚的焦点の法線の垂直面の右側にある場合、bの値は負の数である)、
cは、スクリーンの法線方向と、カメラと話者の顔との間の接続線の投影との間の包含角度に等しい(図において、顔が、カメラの中心の法線の垂直面の右側にある場合、cの値は負の数である)。
Claims (17)
- 音声対話方法であって
端末によって、ユーザから、同じユーザからの第1の音声情報に対する第1の処理結果を出力した後に、第2の音声情報を受信することと、
前記端末によって、音声対話インターフェースの視覚中心点とカメラ位置との間のオフセットを判定することと、
前記端末によって、前記オフセットに基づいて、前記ユーザの顔の向きが前記ユーザの音源と前記視覚中心点の接続線を考慮したプリセット閾値を満たすかどうかを判定することと、
前記端末によって、前記ユーザの顔の向きが前記プリセット閾値を満たすときに、前記第2の音声情報に対する第2の処理結果を出力することと、を含む、方法。 - 前記端末によって、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することをさらに含む、請求項1に記載の方法。
- 前記端末によって、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報と前記第2の音声情報を受信するときに、前記第1の音声情報の特徴と前記第2の音声情報の特徴を別々に取得することと、
前記端末によって、前記第1の音声情報の前記特徴と前記第2の音声情報の前記特徴との比較結果に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することと、を含む、請求項2に記載の方法。 - 前記第1の音声情報の特徴と前記第2の音声情報の特徴は、声紋モデル情報である、請求項2に記載の方法。
- 前記端末によって、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの方向情報又は距離情報を別々に取得することと、
前記端末によって、前記ユーザの前記方向情報又は前記距離情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することと、を含む、請求項2に記載の方法。 - 前記端末は、前記ユーザの前記距離情報を検出するために赤外線センシングを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記距離情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するか、又は
前記端末は、前記ユーザの前記方向情報を検出するためにマイクロホンアレイを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記方向情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定する、請求項5に記載の方法。 - 前記端末によって、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することは、
前記端末によって、前記第1の音声情報と前記第2の音声情報を受信するときに、前記ユーザの顔特徴情報を別々に取得することと、
前記端末によって、前記ユーザの前記顔特徴情報を比較することによって、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することと、を含む、請求項2に記載の方法。 - インテリジェント音声対話を実施するための端末であって、前記端末は、音声対話モジュールと、継続会話意図判定モジュールと、を含み、
前記音声対話モジュールは、ユーザから、同じユーザからの第1の音声情報に対する第1の処理結果を出力した後に、第2の音声情報を受信することを行うように構成されており、
前記継続会話意図判定モジュールは、音声対話インターフェースの視覚中心点とカメラ位置との間のオフセットを判定することと、前記オフセットに基づいて、前記ユーザの顔の向きが前記ユーザの音源と前記視覚中心点の接続線を考慮したプリセット閾値を満たすかどうかを判定することとを行うように構成されており、
前記音声対話モジュールは、前記ユーザの顔の向きが前記プリセット閾値を満たすときに、前記第2の音声情報に対する第2の処理結果を出力するように構成されている、端末。 - 前記継続会話意図判定モジュールが、
前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するようにさらに構成されている、請求項8に記載の端末。 - 前記継続会話意図判定モジュールが、
前記第1の音声情報の特徴と前記第2の音声情報の特徴との比較結果に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するようにさらに構成されている、請求項9に記載の端末。 - 前記第1の音声情報の特徴と前記第2の音声情報の特徴は、声紋モデル情報である、請求項9に記載の端末。
- 前記継続会話意図判定モジュールが、前記第1の音声情報のユーザと前記第2の音声情報のユーザが同じユーザであるかどうかを判定するように構成されていることは、
前記継続会話意図判定モジュールによって、前記第1の音声情報と前記第2の音声情報を受信するときに、前記ユーザの方向情報又は距離情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定することを含む、請求項9に記載の端末。 - 前記継続会話意図判定モジュールは、前記ユーザの前記距離情報を検出するために赤外線センシングを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記距離情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するように構成されているか、または
前記継続会話意図判定モジュールは、前記ユーザの前記方向情報を検出するためにマイクロホンアレイを使用し、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの前記方向情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するように構成されている、請求項12に記載の端末。 - 前記継続会話意図判定モジュールが、前記第1の音声情報及び前記第2の音声情報を受信するときに、前記ユーザの顔特徴情報に基づいて、前記第2の音声情報のユーザと前記第1の音声情報のユーザが同じユーザであるかどうかを判定するようにさらに構成されている、請求項9に記載の端末。
- インテリジェント音声対話を実施するための会議システムであって、前記会議システムは、請求項8~14に記載のいずれかの端末と、少なくとも1つのサーバと、を含み、前記端末は、インテリジェント音声対話を実施するために、ネットワークを介して前記少なくとも1つのサーバに接続され、前記サーバは、声紋認識サーバ、顔認識サーバ、音声認識及び意味理解サーバ、音声合成サーバ、及びセッション意図認識サーバを含む、会議システム。
- コンピュータプログラムを記憶するコンピュータ可読記憶媒体であって、プロセッサが前記プログラムを実行して、請求項1~7のいずれか一項に記載の方法を実施する、コンピュータ可読記憶媒体。
- メモリと、プロセッサと、前記メモリに記憶され、前記プロセッサ上で実行可能なコンピュータプログラムと、を含み、前記プロセッサは、前記コンピュータプログラムを実行して、請求項1~7のいずれか一項に記載の方法を実施する、インテリジェント音声対話を実施するための端末。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811644940.9 | 2018-12-29 | ||
CN201811644940.9A CN111402900B (zh) | 2018-12-29 | 2018-12-29 | 一种语音交互方法,设备和系统 |
PCT/CN2019/129631 WO2020135811A1 (zh) | 2018-12-29 | 2019-12-28 | 一种语音交互方法,设备和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022516491A JP2022516491A (ja) | 2022-02-28 |
JP7348288B2 true JP7348288B2 (ja) | 2023-09-20 |
Family
ID=71128858
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021537969A Active JP7348288B2 (ja) | 2018-12-29 | 2019-12-28 | 音声対話の方法、装置、及びシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210327436A1 (ja) |
EP (1) | EP3896691A4 (ja) |
JP (1) | JP7348288B2 (ja) |
CN (1) | CN111402900B (ja) |
WO (1) | WO2020135811A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210042520A (ko) * | 2019-10-10 | 2021-04-20 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
CN111833876A (zh) * | 2020-07-14 | 2020-10-27 | 科大讯飞股份有限公司 | 会议发言控制方法、系统、电子设备及存储介质 |
CN112017629B (zh) * | 2020-07-15 | 2021-12-21 | 马上消费金融股份有限公司 | 语音机器人的会话控制方法及设备、存储介质 |
CN111951795B (zh) * | 2020-08-10 | 2024-04-09 | 中移(杭州)信息技术有限公司 | 语音交互方法、服务器、电子设备和存储介质 |
CN112133296B (zh) * | 2020-08-27 | 2024-05-21 | 北京小米移动软件有限公司 | 全双工语音控制方法、装置、存储介质及语音设备 |
US11557278B2 (en) | 2020-12-10 | 2023-01-17 | Google Llc | Speaker dependent follow up actions and warm words |
CN112908322A (zh) * | 2020-12-31 | 2021-06-04 | 思必驰科技股份有限公司 | 用于玩具车的语音控制方法和装置 |
CN113138737B (zh) | 2021-04-16 | 2023-11-03 | 阿波罗智联(北京)科技有限公司 | 投屏场景的显示控制方法、装置、设备、介质及程序产品 |
CN113314120B (zh) * | 2021-07-30 | 2021-12-28 | 深圳传音控股股份有限公司 | 处理方法、处理设备及存储介质 |
CN113643728B (zh) * | 2021-08-12 | 2023-08-22 | 荣耀终端有限公司 | 一种音频录制方法、电子设备、介质及程序产品 |
US20230113883A1 (en) * | 2021-10-13 | 2023-04-13 | Google Llc | Digital Signal Processor-Based Continued Conversation |
CN117746849A (zh) * | 2022-09-14 | 2024-03-22 | 荣耀终端有限公司 | 一种语音交互方法、装置及终端 |
CN115567336B (zh) * | 2022-09-28 | 2024-04-16 | 四川启睿克科技有限公司 | 一种基于智慧家居的无唤醒语音控制系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140249817A1 (en) | 2013-03-04 | 2014-09-04 | Rawles Llc | Identification using Audio Signatures and Additional Characteristics |
US20140249811A1 (en) | 2013-03-01 | 2014-09-04 | Google Inc. | Detecting the end of a user question |
JP2018017936A (ja) | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム |
JP2018180523A (ja) | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100754384B1 (ko) * | 2003-10-13 | 2007-08-31 | 삼성전자주식회사 | 잡음에 강인한 화자위치 추정방법 및 장치와 이를 이용한카메라 제어시스템 |
US10042993B2 (en) * | 2010-11-02 | 2018-08-07 | Homayoon Beigi | Access control through multifactor authentication with multimodal biometrics |
US9129604B2 (en) * | 2010-11-16 | 2015-09-08 | Hewlett-Packard Development Company, L.P. | System and method for using information from intuitive multimodal interactions for media tagging |
US20120259638A1 (en) * | 2011-04-08 | 2012-10-11 | Sony Computer Entertainment Inc. | Apparatus and method for determining relevance of input speech |
US9098467B1 (en) * | 2012-12-19 | 2015-08-04 | Rawles Llc | Accepting voice commands based on user identity |
DE102014109121B4 (de) * | 2013-07-10 | 2023-05-04 | Gm Global Technology Operations, Llc | Systeme und Verfahren zur Arbitrierung eines Sprachdialogdienstes |
KR102060661B1 (ko) * | 2013-07-19 | 2020-02-11 | 삼성전자주식회사 | 통신 방법 및 이를 위한 디바이스 |
US9575720B2 (en) * | 2013-07-31 | 2017-02-21 | Google Inc. | Visual confirmation for a recognized voice-initiated action |
US20160344567A1 (en) * | 2015-05-22 | 2016-11-24 | Avaya Inc. | Multi-channel conferencing |
US9653075B1 (en) * | 2015-11-06 | 2017-05-16 | Google Inc. | Voice commands across devices |
CN105912092B (zh) | 2016-04-06 | 2019-08-13 | 北京地平线机器人技术研发有限公司 | 人机交互中的语音唤醒方法及语音识别装置 |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
US20180293221A1 (en) * | 2017-02-14 | 2018-10-11 | Microsoft Technology Licensing, Llc | Speech parsing with intelligent assistant |
US10950228B1 (en) * | 2017-06-28 | 2021-03-16 | Amazon Technologies, Inc. | Interactive voice controlled entertainment |
CN108182943B (zh) | 2017-12-29 | 2021-03-26 | 北京奇艺世纪科技有限公司 | 一种智能设备控制方法、装置及智能设备 |
TWI704490B (zh) * | 2018-06-04 | 2020-09-11 | 和碩聯合科技股份有限公司 | 語音控制裝置及方法 |
EP3631793B1 (en) * | 2018-08-21 | 2022-03-30 | Google LLC | Dynamic and/or context-specific hot words to invoke automated assistant |
-
2018
- 2018-12-29 CN CN201811644940.9A patent/CN111402900B/zh active Active
-
2019
- 2019-12-28 WO PCT/CN2019/129631 patent/WO2020135811A1/zh unknown
- 2019-12-28 JP JP2021537969A patent/JP7348288B2/ja active Active
- 2019-12-28 EP EP19905540.1A patent/EP3896691A4/en active Pending
-
2021
- 2021-06-28 US US17/360,015 patent/US20210327436A1/en not_active Abandoned
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140249811A1 (en) | 2013-03-01 | 2014-09-04 | Google Inc. | Detecting the end of a user question |
US20140249817A1 (en) | 2013-03-04 | 2014-09-04 | Rawles Llc | Identification using Audio Signatures and Additional Characteristics |
JP2018017936A (ja) | 2016-07-28 | 2018-02-01 | 国立研究開発法人情報通信研究機構 | 音声対話装置、サーバ装置、音声対話方法、音声処理方法およびプログラム |
JP2018180523A (ja) | 2017-04-12 | 2018-11-15 | サウンドハウンド,インコーポレイテッド | マン・マシン・ダイアログにおけるエージェント係属の管理 |
Also Published As
Publication number | Publication date |
---|---|
US20210327436A1 (en) | 2021-10-21 |
CN111402900A (zh) | 2020-07-10 |
EP3896691A4 (en) | 2022-07-06 |
WO2020135811A1 (zh) | 2020-07-02 |
EP3896691A1 (en) | 2021-10-20 |
CN111402900B (zh) | 2024-04-23 |
JP2022516491A (ja) | 2022-02-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7348288B2 (ja) | 音声対話の方法、装置、及びシステム | |
US10930303B2 (en) | System and method for enhancing speech activity detection using facial feature detection | |
KR101726945B1 (ko) | 수동 시작/종료 포인팅 및 트리거 구문들에 대한 필요성의 저감 | |
CN105122353A (zh) | 用于虚拟个人助理系统的自然人-计算机交互 | |
US20210056966A1 (en) | System and method for dialog session management | |
EP3779968A1 (en) | Audio processing | |
CN111968680B (zh) | 一种语音处理方法、装置及存储介质 | |
WO2024103926A1 (zh) | 语音控制方法、装置、存储介质以及电子设备 | |
WO2022093623A1 (en) | Methods and systems for automatic queuing in conference calls | |
JPWO2019093123A1 (ja) | 情報処理装置および電子機器 | |
US20190385633A1 (en) | Signal processing apparatus and method, and program | |
JP2004234631A (ja) | ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法 | |
US11726646B2 (en) | Preserving engagement state based on contextual signals | |
KR102134860B1 (ko) | 인공지능 스피커 및 이의 비언어적 요소 기반 동작 활성화 방법 | |
US12020704B2 (en) | Dynamic adaptation of parameter set used in hot word free adaptation of automated assistant | |
US20240201938A1 (en) | Pairing audio data channels based on initiating, using a first client device, playback of media on a second client device | |
WO2024123364A1 (en) | Annotating automatic speech recognition transcription | |
WO2024123365A1 (en) | Separation of conversational clusters in automatic speech recognition transcriptions | |
KR20240011841A (ko) | 과거 인터렉션에 기초하여 세컨더리 자동화된 어시스턴트에 관련 쿼리 제공 | |
CN118369641A (zh) | 基于调用属性在多个自动化助理之间选择 | |
Zhang et al. | Fusing array microphone and stereo vision for improved computer interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210816 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210816 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230519 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7348288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |