JP7114721B2 - 音声ウェイクアップ方法及び装置 - Google Patents
音声ウェイクアップ方法及び装置 Download PDFInfo
- Publication number
- JP7114721B2 JP7114721B2 JP2020545333A JP2020545333A JP7114721B2 JP 7114721 B2 JP7114721 B2 JP 7114721B2 JP 2020545333 A JP2020545333 A JP 2020545333A JP 2020545333 A JP2020545333 A JP 2020545333A JP 7114721 B2 JP7114721 B2 JP 7114721B2
- Authority
- JP
- Japan
- Prior art keywords
- interaction
- user
- state
- information
- wake
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 144
- 230000003993 interaction Effects 0.000 claims description 282
- 230000008569 process Effects 0.000 claims description 92
- 230000007958 sleep Effects 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 23
- 230000005236 sound signal Effects 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 7
- 230000002618 waking effect Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000004622 sleep time Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Description
ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するステップと、
ユーザーから入力された音声信号を取得し、前記リアルタイム・ウェイクアップ・シソーラス及び前記音声信号に基づきウェイクアップを行うステップとを含む。
ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するように構成される第1の決定モジュールと、
ユーザーから入力された音声信号を取得し、前記リアルタイム・ウェイクアップ・シソーラス及び前記音声信号に基づきウェイクアップを行うように構成されるウェイクアップ
モジュールとを含む。
少なくとも1つのプロセッサと、
プロセッサに通信可能に接続される少なくとも1つのメモリとを含み、ここで、
メモリには、プロセッサによって実行されるプログラム命令が格納され、プロセッサは、プログラム命令を呼び出し、第1の態様に係る音声ウェイクアップ方法を実行できる。
された「ディンドンディンドン」の音声信号(すなわち、語義のない音声信号であって、スマートスピーカーのウェイクアップだけに使用されるもの)を検出した場合、次のようにユーザーとのインタラクションを開始することができる。
スマートスピーカー:ご用件はなんでしょうか?
ユーザー:音楽を聞きたいんです。
スマートスピーカー:はい、わかりました。お気に入りの歌手や曲がありますか?
ユーザー:周杰倫。
スマートスピーカー:周杰倫が歌った特定の曲をリクエストしますか。
スマートスピーカー:ご用件はなんでしょうか?
ユーザー:音楽を聞きたいんです。
スマートスピーカー:はい、わかりました。お気に入りの歌手や曲がありますか?
ユーザー:周杰倫。
に関わるインタラクション情報であってもよく、前回のインタラクションプロセスにおけるユーザー需要に基づいて取得された情報であってもよく、本開示の実施例は特にこれに制限しない。キーワードは、スリープ前のインタラクションプロセスにおける異なるインタラクション段階に関わる名詞及び動詞であってもよく、インタラクション段階におけるユーザーからの質問に応じて検索によって得られた名詞であってもよく、本開示の実施例は特にこれに制限しない。キーワードを初期のウェイクアップ・シソーラスに追加し、リアルタイム・ウェイクアップ・シソーラスが得られる。ユーザーから入力された音声信号を取得した後、リアルタイム・ウェイクアップ・シソーラス及び音声信号に基づきウェイクアップを行うことができる。
インタラクション論理特徴を重み付け加算し、加算結果が所定の閾値より大きい場合、スリープ前のインタラクションプロセスがすでに終了し、次回ユーザーが新しいインタラクションプロセスを開始しようとすることを意味する。加算結果が所定の閾値以下の場合、スリープ前のインタラクションプロセスはまだ終了しておらず、次回ユーザーがスリープ前のインタラクションプロセスを続けようとすることを意味する。ここで、必要に応じて所定の閾値を設定し、本開示の実施例はこれに特に制限しない。
これに特に制限しない。
ーの顔の向き、Rは、インタラクション論理完全性、Sは、前文インタラクション語義関連性、a1、a2…a5は、それぞれ各自の重み、a6は、固定の重みパラメータを表す。
プワードとし、各ウェイクアップワードに対応する音素シーケンス或いはマルコフ状態シーケンスを取得するステップ301と、すべてのウェイクアップワードに対応する音素シーケンス或いはマルコフ状態シーケンスを接続し、リアルタイム・ウェイクアップ・ネットワークを構築するステップ302とを含む。
である。
ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するように構成される第1の決定モジュール501と、
ユーザーから入力された音声信号を取得し、リアルタイム・ウェイクアップ・シソーラス及び音声信号に基づきウェイクアップを行うように構成されるウェイクアップモジュール502とを含む。
前記ユーザーインタラクション状態がスリープ前のインタラクションプロセスの継続である場合、キーワード情報規則に基づき、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得し、前記キーワードを初期のウェイクアップ・シソー
ラスに追加し、前記リアルタイム・ウェイクアップ・シソーラスが得られるように構成される第1の取得ユニットと、
前記ユーザーインタラクション状態がインタラクションプロセスの新規開始である場合、前記初期のウェイクアップ・シソーラスを前記リアルタイム・ウェイクアップ・シソーラスとするように構成される第2の取得ユニットとを含む。
インタラクション時のユーザー状態を示すように構成されるユーザー状態特徴、及び又は、インタラクション時のインタラクション論理を示すように構成されるインタラクション論理特徴に基づき、前記ユーザーインタラクション状態を決定するように構成される第2の決定モジュールをさらに含む。
前回のインタラクションプロセスの第2のインタラクション情報を取得し、前記インタラクション情報のワードベクトルを抽出するように構成される取得モジュールと、
前記ワードベクトルを、インタラクション情報サンプルに基づいてトレーニングして得られた質疑応答関連性モデルに入力し、前記前文インタラクション語義関連性を出力するように構成される出力モジュールとをさらに含む。
当該デバイスは、プロセッサ(processor)610、通信インターフェース(Communications Interface)620、メモリ(memory)630及びバス640を含み、ここで、プロ
セッサ610、通信インターフェース620、メモリ630は、バス640を介して相互に通信を行う。通信インターフェース640は、サーバとスマートテレビとの間の情報伝送に用いられることができる。下記の方法を実行するように、プロセッサ610はメモリ630の論理命令を呼び出すことができる。当該方法は、ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するステップと、ユーザーから入力された音声信号を取得し、前記リアルタイム・ウェイクアップ・シソーラス及び前記音声信号に基づきウェイクアップを行うステップとを含む。
、又はシソーラス機器などであってもよい)に各実施例又は実施例の一部に記載の方法を実行させるためのいくつかの命令を含む。
Claims (18)
- スリープ状態に入った後、現在のユーザーインタラクション状態を決定するステップと、
ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するステップと、
ユーザーから入力された音声信号を取得し、前記リアルタイム・ウェイクアップ・シソーラス及び前記音声信号に基づきウェイクアップを行うステップとを含み、
前記ユーザーインタラクション状態は、スリープ前のインタラクションプロセスの継続、又は、インタラクションプロセスの新規開始である、
ことを特徴とする音声ウェイクアップ方法。 - ユーザーインタラクション状態に基づきリアルタイム・ウェイクアップ・シソーラスを決定することは、
前記ユーザーインタラクション状態がスリープ前のインタラクションプロセスの継続である場合、キーワード情報規則に応じて、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得し、前記キーワードを初期のウェイクアップ・シソーラスに追加し、前記リアルタイム・ウェイクアップ・シソーラスが得られることと、
前記ユーザーインタラクション状態がインタラクションプロセスの新規開始である場合、前記初期のウェイクアップ・シソーラスを前記リアルタイム・ウェイクアップ・シソーラスとすることとを含む、
ことを特徴とする請求項1に記載の音声ウェイクアップ方法。 - キーワード情報規則に応じて、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得することは、
品詞及び/又は文の要素に応じて、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得することを含む、
ことを特徴とする請求項2に記載の音声ウェイクアップ方法。 - 前記第1のインタラクション情報は、ユーザー命令情報、機器返信情報及び検索情報のいずれか1つを含む、
ことを特徴とする請求項2又は3に記載の音声ウェイクアップ方法。 - 前記現在のユーザーインタラクション状態を決定するステップは、インタラクション時のユーザー状態を示すように構成されるユーザー状態特徴、及び/又は、インタラクション時のインタラクション論理を示すように構成されるインタラクション論理特徴に基づき、前記ユーザーインタラクション状態を決定することを含む、
ことを特徴とする請求項1に記載の音声ウェイクアップ方法。 - ユーザー状態特徴及び/又はインタラクション論理特徴に基づき、前記ユーザーインタラクション状態を決定することは、
前記ユーザー状態特徴及び/又は前記インタラクション論理特徴をインタラクション状態予測モデルに入力し、前記ユーザーインタラクション状態を出力すること、
前記ユーザー状態特徴及び/又は前記インタラクション論理特徴を正則化し、正則化した結果に応じて前記ユーザーインタラクション状態を決定することを含む、
ことを特徴とする請求項5に記載の音声ウェイクアップ方法。 - 前記ユーザー状態特徴は、ユーザー応答時間、ユーザー距離、ユーザー肢体の状態、ユーザーの顔の状態及びユーザーの身元という5つの情報のうち、少なくともいずれか1つを含み、
前記インタラクション論理特徴は、インタラクション論理完全性及び前文インタラクション語義関連性という2つの情報のうち、少なくともいずれか1つを含む、
ことを特徴とする請求項5又は6に記載の音声ウェイクアップ方法。 - 前回のインタラクションプロセスの第2のインタラクション情報を取得し、前記インタラクション情報のワードベクトルを抽出するステップと、
前記ワードベクトルを、インタラクション情報サンプルに基づいてトレーニングして得られた質疑応答関連性モデルに入力し、前記前文インタラクション語義関連性を出力するステップとをさらに含む、
ことを特徴とする請求項7に記載の音声ウェイクアップ方法。 - スリープ状態に入った後、現在のユーザーインタラクション状態を決定するように構成される第2の決定モジュールと、
ユーザーインタラクション状態に基づき、次回のインタラクションプロセスに使用されるリアルタイム・ウェイクアップ・シソーラスを決定するように構成される第1の決定モジュールと、
ユーザーから入力された音声信号を取得し、前記リアルタイム・ウェイクアップ・シソーラス及び前記音声信号に基づいてウェイクアップを行うように構成されるウェイクアップモジュールとを含み、
前記ユーザーインタラクション状態は、スリープ前のインタラクションプロセスの継続、又は、インタラクションプロセスの新規開始である、
ことを特徴とする音声ウェイクアップ装置。 - 前記第1の決定モジュールは、
前記ユーザーインタラクション状態がスリープ前のインタラクションプロセスの継続である場合、キーワード情報規則に応じて、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得し、前記キーワードを初期のウェイクアップ・シソーラスに追加し、前記リアルタイム・ウェイクアップ・シソーラスが得られるように構成される第1の取得ユニットと、
前記ユーザーインタラクション状態がインタラクションプロセスの新規開始である場合、前記初期のウェイクアップ・シソーラスを前記リアルタイム・ウェイクアップ・シソーラスとするように構成される第2の取得ユニットとを含む、
ことを特徴とする請求項9に記載の音声ウェイクアップ装置。 - 前記第1の取得ユニットは、品詞及び/又は文の要素に応じて、前回のインタラクションプロセスの第1のインタラクション情報のキーワードを取得するように構成される、
ことを特徴とする請求項10に記載の音声ウェイクアップ装置。 - 前記第1のインタラクション情報は、ユーザー命令情報、機器返信情報及び検索情報のいずれか1つを含む、
ことを特徴とする請求項10又は11に記載の音声ウェイクアップ装置。 - 前記第2の決定モジュールは、インタラクション時のユーザー状態を示すように構成されるユーザー状態特徴、及び/又は、インタラクション時のインタラクション論理を示すように構成されるインタラクション論理特徴に基づき、前記ユーザーインタラクション状態を決定するように構成される、
ことを特徴とする請求項9に記載の音声ウェイクアップ装置。 - 前記第2の決定モジュールは、前記ユーザー状態特徴及び/又は前記インタラクション論理特徴をインタラクション状態予測モデルに入力し、前記ユーザーインタラクション状態を出力するよう、又は、前記ユーザー状態特徴及び/又は前記インタラクション論理特徴を正則化し、正則化した結果に応じて前記ユーザーインタラクション状態を決定するように構成される、
ことを特徴とする請求項13に記載の音声ウェイクアップ装置。 - 前記ユーザー状態特徴は、ユーザー応答時間、ユーザー距離、ユーザー肢体の状態、ユーザーの顔の状態及びユーザーの身元という5つの情報のうち、少なくともいずれか1つを含み、
前記インタラクション論理特徴は、インタラクション論理完全性及び前文インタラクション語義関連性という2つの情報のうち、少なくともいずれか1つを含む、
ことを特徴とする請求項13又は14に記載の音声ウェイクアップ装置。 - 前回のインタラクションプロセスの第2のインタラクション情報を取得し、前記インタラクション情報のワードベクトルを抽出するように構成される取得モジュールと、
前記ワードベクトルを、インタラクション情報サンプルに基づいてトレーニングして得られた質疑応答関連性モデルに入力し、前記前文インタラクション語義関連性を出力するように構成される出力モジュールとをさらに含む、
ことを特徴とする請求項15に記載の音声ウェイクアップ装置。 - 音声ウェイクアップデバイスであって、
少なくとも1つのプロセッサと、
前記プロセッサに通信可能に接続される少なくとも1つのメモリとを含み、
前記メモリには、前記プロセッサによって実行されるプログラム命令が格納され、前記プロセッサは、前記プログラム命令を呼び出し、請求項1から8のいずれか1項に記載の方法を実行できる、
ことを特徴とする音声ウェイクアップデバイス。 - 請求項1から8のいずれか1項に記載の方法をコンピュータに実行させるコンピュータ命令を格納することを特徴とする非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810298845.1A CN108538298B (zh) | 2018-04-04 | 2018-04-04 | 语音唤醒方法及装置 |
CN201810298845.1 | 2018-04-04 | ||
PCT/CN2019/073417 WO2019192250A1 (zh) | 2018-04-04 | 2019-01-28 | 语音唤醒方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021516361A JP2021516361A (ja) | 2021-07-01 |
JP7114721B2 true JP7114721B2 (ja) | 2022-08-08 |
Family
ID=63481860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020545333A Active JP7114721B2 (ja) | 2018-04-04 | 2019-01-28 | 音声ウェイクアップ方法及び装置 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP3779972A4 (ja) |
JP (1) | JP7114721B2 (ja) |
KR (1) | KR102437944B1 (ja) |
CN (1) | CN108538298B (ja) |
RU (1) | RU2760368C1 (ja) |
WO (1) | WO2019192250A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108538298B (zh) * | 2018-04-04 | 2021-05-04 | 科大讯飞股份有限公司 | 语音唤醒方法及装置 |
CN109493861A (zh) * | 2018-12-05 | 2019-03-19 | 百度在线网络技术(北京)有限公司 | 利用语音控制电器的方法、装置、设备和可读存储介质 |
CN111312235B (zh) * | 2018-12-11 | 2023-06-30 | 阿里巴巴集团控股有限公司 | 一种语音交互方法、装置及系统 |
CN111506289A (zh) * | 2019-01-31 | 2020-08-07 | 阿里巴巴集团控股有限公司 | 一种数据处理方法、装置、设备和机器可读介质 |
CN110012166B (zh) * | 2019-03-31 | 2021-02-19 | 联想(北京)有限公司 | 一种信息处理方法及装置 |
CN111754997B (zh) * | 2019-05-09 | 2023-08-04 | 北京汇钧科技有限公司 | 控制装置及其操作方法,和语音交互装置及其操作方法 |
CN110164443B (zh) * | 2019-06-28 | 2021-09-14 | 联想(北京)有限公司 | 用于电子设备的语音处理方法、装置以及电子设备 |
CN110718225A (zh) * | 2019-11-25 | 2020-01-21 | 深圳康佳电子科技有限公司 | 一种语音控制方法、终端以及存储介质 |
CN110992953A (zh) * | 2019-12-16 | 2020-04-10 | 苏州思必驰信息科技有限公司 | 一种语音数据处理方法、装置、系统及存储介质 |
CN111161726B (zh) * | 2019-12-24 | 2023-11-03 | 广州索答信息科技有限公司 | 一种智能语音交互方法、设备、介质及系统 |
CN110970036B (zh) * | 2019-12-24 | 2022-07-12 | 网易(杭州)网络有限公司 | 声纹识别方法及装置、计算机存储介质、电子设备 |
CN111192581A (zh) * | 2020-01-07 | 2020-05-22 | 百度在线网络技术(北京)有限公司 | 语音唤醒方法、设备及存储介质 |
CN111402866B (zh) * | 2020-03-23 | 2024-04-05 | 北京声智科技有限公司 | 语义识别方法、装置及电子设备 |
CN111554298B (zh) * | 2020-05-18 | 2023-03-28 | 阿波罗智联(北京)科技有限公司 | 语音交互方法、语音交互设备和电子设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154694A (ja) | 1999-09-13 | 2001-06-08 | Matsushita Electric Ind Co Ltd | 音声認識装置及び方法 |
WO2013080406A1 (ja) | 2011-11-28 | 2013-06-06 | Necソフト株式会社 | 対話システム、冗長メッセージ排除方法および冗長メッセージ排除プログラム |
JP2016526205A (ja) | 2013-05-07 | 2016-09-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 音声アクティブ化を制御するための方法および装置 |
WO2017179335A1 (ja) | 2016-04-11 | 2017-10-19 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7188066B2 (en) * | 2002-02-04 | 2007-03-06 | Microsoft Corporation | Speech controls for use with a speech system |
JP4107093B2 (ja) * | 2003-01-30 | 2008-06-25 | 株式会社日立製作所 | 対話型端末装置及び対話アプリケーション提供方法 |
JP5073024B2 (ja) * | 2010-08-10 | 2012-11-14 | 株式会社東芝 | 音声対話装置 |
SG187286A1 (en) * | 2011-07-29 | 2013-02-28 | Smart Communications Inc | System and method for activating a mobile device to initiate a communication |
US8768712B1 (en) * | 2013-12-04 | 2014-07-01 | Google Inc. | Initiating actions based on partial hotwords |
US8938394B1 (en) * | 2014-01-09 | 2015-01-20 | Google Inc. | Audio triggers based on context |
US9646607B2 (en) * | 2014-03-10 | 2017-05-09 | Dell Products, L.P. | Managing wake-on-voice buffer quality based on system boot profiling |
CN105206271A (zh) * | 2015-08-25 | 2015-12-30 | 北京宇音天下科技有限公司 | 智能设备的语音唤醒方法及实现所述方法的系统 |
CN105654943A (zh) * | 2015-10-26 | 2016-06-08 | 乐视致新电子科技(天津)有限公司 | 一种语音唤醒方法、装置及系统 |
US9940929B2 (en) * | 2015-12-09 | 2018-04-10 | Lenovo (Singapore) Pte. Ltd. | Extending the period of voice recognition |
CN107622652B (zh) * | 2016-07-15 | 2020-10-02 | 青岛海尔智能技术研发有限公司 | 家电系统的语音控制方法与家电控制系统 |
US10621992B2 (en) * | 2016-07-22 | 2020-04-14 | Lenovo (Singapore) Pte. Ltd. | Activating voice assistant based on at least one of user proximity and context |
CN107818782B (zh) * | 2016-09-12 | 2020-10-09 | 上海声瀚信息科技有限公司 | 一种实现家用电器智能控制的方法及系统 |
JP2018049230A (ja) * | 2016-09-23 | 2018-03-29 | シャープ株式会社 | 辞書作成装置、辞書作成プログラム、音声認識装置、音声認識プログラムおよび記録媒体 |
CN106653021B (zh) * | 2016-12-27 | 2020-06-02 | 上海智臻智能网络科技股份有限公司 | 语音唤醒的控制方法、装置及终端 |
CN106898352B (zh) * | 2017-02-27 | 2020-09-25 | 联想(北京)有限公司 | 语音控制方法及电子设备 |
CN107195304A (zh) * | 2017-06-30 | 2017-09-22 | 珠海格力电器股份有限公司 | 一种电器设备的语音控制电路和方法 |
CN107360157A (zh) * | 2017-07-10 | 2017-11-17 | 绵阳美菱软件技术有限公司 | 一种用户注册方法、装置及智能空调器 |
CN107610695B (zh) * | 2017-08-08 | 2021-07-06 | 大众问问(北京)信息科技有限公司 | 驾驶人语音唤醒指令词权重的动态调整方法 |
CN107564518B (zh) * | 2017-08-21 | 2021-10-22 | 百度在线网络技术(北京)有限公司 | 智能设备控制方法、装置及计算机设备 |
CN107704275B (zh) * | 2017-09-04 | 2021-07-23 | 百度在线网络技术(北京)有限公司 | 智能设备唤醒方法、装置、服务器及智能设备 |
CN107578776B (zh) * | 2017-09-25 | 2021-08-06 | 咪咕文化科技有限公司 | 一种语音交互的唤醒方法、装置及计算机可读存储介质 |
CN108538298B (zh) * | 2018-04-04 | 2021-05-04 | 科大讯飞股份有限公司 | 语音唤醒方法及装置 |
-
2018
- 2018-04-04 CN CN201810298845.1A patent/CN108538298B/zh active Active
-
2019
- 2019-01-28 JP JP2020545333A patent/JP7114721B2/ja active Active
- 2019-01-28 KR KR1020207028374A patent/KR102437944B1/ko active IP Right Grant
- 2019-01-28 WO PCT/CN2019/073417 patent/WO2019192250A1/zh unknown
- 2019-01-28 RU RU2020132137A patent/RU2760368C1/ru active
- 2019-01-28 EP EP19782046.7A patent/EP3779972A4/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001154694A (ja) | 1999-09-13 | 2001-06-08 | Matsushita Electric Ind Co Ltd | 音声認識装置及び方法 |
WO2013080406A1 (ja) | 2011-11-28 | 2013-06-06 | Necソフト株式会社 | 対話システム、冗長メッセージ排除方法および冗長メッセージ排除プログラム |
JP2016526205A (ja) | 2013-05-07 | 2016-09-01 | クゥアルコム・インコーポレイテッドQualcomm Incorporated | 音声アクティブ化を制御するための方法および装置 |
WO2017179335A1 (ja) | 2016-04-11 | 2017-10-19 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2019192250A1 (zh) | 2019-10-10 |
KR102437944B1 (ko) | 2022-08-30 |
KR20200130352A (ko) | 2020-11-18 |
EP3779972A4 (en) | 2022-04-13 |
JP2021516361A (ja) | 2021-07-01 |
RU2760368C1 (ru) | 2021-11-24 |
EP3779972A1 (en) | 2021-02-17 |
CN108538298A (zh) | 2018-09-14 |
CN108538298B (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7114721B2 (ja) | 音声ウェイクアップ方法及び装置 | |
JP7150770B2 (ja) | 対話方法、装置、コンピュータ可読記憶媒体、及びプログラム | |
KR102608469B1 (ko) | 자연어 생성 방법 및 장치 | |
KR102309540B1 (ko) | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 | |
CN107644638B (zh) | 语音识别方法、装置、终端和计算机可读存储介质 | |
US10504513B1 (en) | Natural language understanding with affiliated devices | |
US8589163B2 (en) | Adapting language models with a bit mask for a subset of related words | |
KR20200007882A (ko) | 자동 비서를 위한 명령 번들 제안 제공 | |
CN111081280B (zh) | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 | |
JP7300435B2 (ja) | 音声インタラクションするための方法、装置、電子機器、およびコンピュータ読み取り可能な記憶媒体 | |
CN111199732B (zh) | 一种基于情感的语音交互方法、存储介质及终端设备 | |
CN111832308B (zh) | 语音识别文本连贯性处理方法和装置 | |
US20190042185A1 (en) | Flexible voice-based information retrieval system for virtual assistant | |
CN111161725B (zh) | 一种语音交互方法、装置、计算设备及存储介质 | |
US20200265843A1 (en) | Speech broadcast method, device and terminal | |
US11398226B1 (en) | Complex natural language processing | |
CN109741735A (zh) | 一种建模方法、声学模型的获取方法和装置 | |
US11580182B2 (en) | Content generation framework | |
CN111292733A (zh) | 一种语音交互方法和装置 | |
JP2021076818A (ja) | 音声対話するための方法、装置、デバイス及びコンピュータ読み取り可能な記憶媒体 | |
US10861453B1 (en) | Resource scheduling with voice controlled devices | |
CN108492826B (zh) | 音频处理方法、装置、智能设备及介质 | |
CN111508481B (zh) | 语音唤醒模型的训练方法、装置、电子设备及存储介质 | |
US11657095B1 (en) | Supplemental content placement for natural language interfaces | |
US20230306964A1 (en) | Device-specific skill processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200903 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211013 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220727 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7114721 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |