JP2019204025A - 電子機器、制御方法、及びプログラム - Google Patents

電子機器、制御方法、及びプログラム Download PDF

Info

Publication number
JP2019204025A
JP2019204025A JP2018099859A JP2018099859A JP2019204025A JP 2019204025 A JP2019204025 A JP 2019204025A JP 2018099859 A JP2018099859 A JP 2018099859A JP 2018099859 A JP2018099859 A JP 2018099859A JP 2019204025 A JP2019204025 A JP 2019204025A
Authority
JP
Japan
Prior art keywords
voice
time
detected
keyword
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018099859A
Other languages
English (en)
Inventor
英久 森
Hidehisa Mori
英久 森
雅春 米田
Masaharu Yoneda
雅春 米田
幸司 川北
Koji Kawakita
幸司 川北
堀野俊和
Toshikazu Horino
俊和 堀野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2018099859A priority Critical patent/JP2019204025A/ja
Priority to US16/106,071 priority patent/US10748536B2/en
Publication of JP2019204025A publication Critical patent/JP2019204025A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/84Detection of presence or absence of voice signals for discriminating voice from noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】キーワードを話しかけることにより特定の機能を実行させる際の誤認識率を低減すること。【解決手段】電子機器は、第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理部と、第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、第2の時間以内に特定の言葉が含まれていない場合には第3の処理に移行させない第2処理部と、第3の処理において、特定の機能を起動する第3処理部と、を備える。【選択図】図1

Description

本発明は、電子機器、制御方法、及びプログラムに関する。
ユーザが発話した内容を音声認識し、発話内容に応答したり、発話内容による指示に対応した処理を実行したりする機能(所謂、音声アシスタント)が搭載された電子機器がある(例えば、特許文献1)。
特開2014−170185号公報
上述した音声アシスタントのように特定の機能を利用する場合、キーワード(特定の言葉)を話しかけることによりその機能が起動するものがある。しかしながら、当該キーワードを含む会話をした場合、または当該キーワードに音として似ている言葉が会話の中に含まれていた場合に、音声アシスタントを利用する意思が無いのに起動してしまうことがあった。この場合、ユーザからすると、意図しないタイミングで音声アシスタントなどの機能が反応してしまうことがあった。
本発明は、上記した事情に鑑みてなされたもので、キーワードを話しかけることにより特定の機能を実行させる際の誤認識率を低減することができる電子機器、制御方法、及びプログラムを提供することを目的の一つとする。
本発明は上記の課題を解決するためになされたものであり、本発明の第1態様に係る電子機器は、第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理部と、前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理部と、前記第3の処理において、特定の機能を起動する第3処理部と、を備える。
前記第2処理部は、前記第2の処理に移行してから前記第2の時間以内に特定の言葉が含まれていない場合には前記第1の処理に移行させてもよい。
前記第3処理部は、前記第3の処理において、検出された音声に対して音声認識が行われることにより認識された音声の内容に基づく応答処理を実行してもよい。
前記第1の時間及び前記第2の時間の少なくとも一方は地域設定または言語設定に基づいて設定されてもよい。
前記第1の時間及び前記第2の時間の少なくとも一方はユーザにより設定可能であってもよい。
また、本発明の第2態様に係る電子機器における制御方法は、第1処理部が、第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理ステップと、第2処理部が、前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理ステップと、第3処理部が、前記第3の処理において、特定の機能を起動する第3処理ステップと、 を有する。
また、本発明の第3態様に係るプログラムは、コンピュータに、第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理ステップと、前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理ステップと、前記第3の処理において、特定の機能を起動する第3処理ステップと、を実行させる。
本発明の上記態様によれば、キーワードを話しかけることにより特定の機能を実行させる際の誤認識率を低減することができる。
実施形態に係る音声アシスタント起動制御処理の概要を示す図。 実施形態に係る音声アシスタントシステムの構成の一例を示すシステム図。 実施形態に係る端末のハードウェア構成の一例を示すブロック図。 実施形態に係る端末の機能構成の一例を示すブロック図。 実施形態に係る音声アシスタント起動処理の一例を示すフローチャート。 実施形態に係る音声アシスタント起動処理の変形例を示すフローチャート。
以下、図面を参照しながら本発明の実施形態について詳しく説明する。なお、各図において同一部分には同一符号を付している。
本実施形態では、特定の言葉(以下、「キーワード」ともいう)を話しかけることにより、PC(Personal Computer)に搭載されている音声アシスタントが自動で起動する音声アシスタントシステムを例に説明する。ここで、音声アシスタントとは、ユーザが発話する内容を音声認識することにより、その発話内容に対する応答を出力する機能である。例えば、音声アシスタントは、ユーザの発話内容に応じて、天気情報、ニュース、お店や観光地などの情報を提供したり、動画や音楽などのコンテンツをストリーミング再生したりといったような各種の情報を提供する。例えば、天気情報を例にすると、ユーザの発話内容が「今日の天気は?」の場合には、天気情報の提供サイトを参照して、現在地の今日の天気予報についての回答(例えば、「今日は、晴れの予報です」)が応答される。応答の方法は、音声合成による音声出力であってもよいし、文字や画像による表示出力であってもよいし、その両方であってもよい。
ところで、音声アシスタントを起動させるためのキーワードが一連の会話の中に含まれていた場合、または当該キーワードに音として似ている言葉が会話の中に含まれていた場合などに、音声アシスタントを利用する意思が無いのに、音声アシスタントが起動してしまうことがある。この場合、ユーザの意図しないタイミングで音声アシスタントが反応し、会話や作業が途切れてしまうことになる。また、常に、音声アシスタントによって聞き耳を立てられている感覚がして不快に感じる場合もある。そのため、ユーザが音声アシスタントを使用できないように機能自体を無効(Disable)に設定してしまい、せっかくPCに音声アシスタントが搭載されていても使用されなくなってしまう可能性がある。
そこで、本実施形態では、ユーザが音声アシスタントを利用する意思を持ってキーワードを話しかけた場合に音声アシスタントを起動し、キーワードが一連の会話の中に単に含まれていた場合や、キーワードに音として似ている言葉が会話の中に含まれていた場合には、音声アシスタントが起動してしまうことを抑制するように音声アシスタントの起動を制御する。図1を参照して、この音声アシスタント起動制御処理の概要を説明する。
図1は、本実施形態に係る音声アシスタント起動制御処理の概要を示す図である。音声アシスタント起動制御処理は、「Phase1」、「Phase2」、「Phase3」の順に処理が行われる。「Phase1」は、周囲の音から音声を検出(VAD:Voice Activity Detection)する処理である。「Phase2」は、「Phase1」で音声が検出された場合にその音声とキーワードとを照合し、キーワードが検出された場合に音声アシスタントを起動させる指示を行う処理(Voice Trigger)である。「Phase3」は、「Phase2」における音声アシスタントを起動させる指示に応じて、音声アシスタント(Voice Engine)を起動する。また、図示する各PhaseにおけるPCの状態は、「Phase1」では音声を聞いている状態(listening)を示し、「Phase2」では音声とキーワードのマッチングを行っている状態(thinking)を示し、「Phase3」では、音声アシスタントが起動して起動音が出力された状態を示している。
ここで、キーワードが一連の会話の中に含まれていた場合、またはキーワードに音として似ている言葉が会話の中に含まれていた場合には、音声が連続して検出されている中にキーワード(またはキーワードに似ている言葉)が検出される。一方、ユーザが音声アシスタントを利用する意思を持ってキーワードを話しかける場合には、一定時間の沈黙があってから話しかける傾向があるため、一定時間の沈黙(音声なし)の後の一定時間以内にキーワードが検出されることが一般的であると考えられる。また、例え、一連の会話の最後に一定時間の沈黙を挟まずに意思を持ってキーワードを話しかけることがあったとしても、音声アシスタントから反応が無ければ、ユーザは一定時間の沈黙が挟まれた後に再びキーワードを話しかけることが考えられる。
そこで、本実施形態の音声アシスタントシステムは、図示するように「Phase1」では、一定時間の沈黙(音声なし)の後に音声が検出された場合に「Phase2」へ移行させ、さらに「Phase2」に移行してから一定時間以内にキーワードが検出された場合に「Phase3」へ移行させて音声アシスタントを起動させる。また、本実施形態の音声アシスタントシステムは、「Phase2」に移行してから一定時間内以内キーワードが検出されない場合には「Phase1」に戻す。つまり、本実施形態の音声アシスタントシステムは、一旦「Phase2」移行しても、一定時間以上会話が続いた後にキーワードが検出されたとしても、それはユーザが音声アシスタントを利用する意思を持ったものではないと判断してキーワード検出を停止し、「Phase1」に戻すことにより、再び一定時間の沈黙(音声なし)の後に音声が検出されたときにキーワード検出を再開する。
これにより、本実施形態では、会話の中で出てくるキーワードまたはキーワードに似た言葉によって音声アシスタントを起動させてしまうといった誤認識率(FAR:Fales Acceptance Ratio)を下げることができ、ユーザの意図したタイミングで適切に音声アシスタントを起動できるようになる。例えば、従来は、「Phase1」で音声が検出されることによって「Phase2」へ一旦移行すると、その後キーワードが検出されるまでキーワード検出が行われていたため、キーワードが一連の会話の中に含まれていた場合、またはキーワードに音として似ている言葉が会話の中に含まれていた場合などに、ユーザが利用する意思が無いのに音声アシスタントが起動してしまう場合があった。本実施形態では、一定時間の沈黙(音声なし)の後の一定時間以内にキーワードが検出された場合に音声アシスタントを起動させるため、ユーザが利用する意思が無いのに音声アシスタントが起動してしまうことを抑制することができる。
以下、本実施形態に係る音声アシスタントシステムの構成について詳細に説明する。
図2は、本実施形態に係る音声アシスタントシステムの構成の一例を示すシステム図である。図示する音声アシスタントシステム1は、複数の端末10(10−1、10−2、・・・10−N:Nは自然数)と音声認識サーバ20とを備えている。複数の端末10のそれぞれは、音声認識サーバ20とネットワークNWを介して通信接続される。
ネットワークNWは、例えば、携帯電話網、PHS(Personal Handy-phone System)網、VPN(Virtual Private Network)網、専用通信回線網、WAN(Wide Area Network)、LAN(Local Area Network)、PSTN(Public Switched Telephone Network;公衆交換電話網)など、またはこれらの組み合わせによって構成される通信ネットワークである。
端末10は、ユーザが利用するコンピュータ装置であり、例えば、デスクトップPC、ラップトップPC(ノートPC)、タブレットPCなどの電子機器である。なお、端末10は、スマートフォンなどの携帯電話機、スマートスピーカなどのような電子機器であってもよい。端末10は、音声認識サーバ20と連携して音声アシスタントの機能を実現する。例えば、図1に示す「Phase3」に移行することにより音声アシスタントが起動すると、端末10は、ユーザが発話した音声を検出し、検出した音声の音声信号を、ネットワークNWを介して音声認識サーバ20へ送信する。
音声認識サーバ20は、端末10から送信された音声信号に対して音声認識を行い、認識結果(即ち、ユーザの発話内容)を示す情報を端末10へ送信する。端末10は、音声認識サーバ20から取得した認識結果を示す情報に基づいて、ユーザの発話内容に応じた応答を出力する。例えば、端末10は、ユーザの発話内容に応じて、天気情報、ニュース、お店や観光地などの情報を音声または映像で出力したり、動画コンテンツや音楽コンテンツなどをストリーミング再生したりする。
なお、音声認識サーバ20は、端末10から送信された音声信号に対して音声認識を行い、ユーザの発話内容に応じた応答を生成して端末10へ提供してもよい。例えば、音声認識サーバ20は、ユーザの発話内容に応じて天気情報、ニュース、お店や観光地などの情報を端末10へ送信してもよいし、動画コンテンツや音楽コンテンツなどのストリーミング再生信号などを送信してもよい。これにより、端末10は、ユーザの発話内容に応じた応答を音声認識サーバ20から取得して出力するようにしてもよい。
図3は、本実施形態に係る端末10のハードウェア構成の一例を示すブロック図である。端末10は、通信部11と、表示部12と、操作入力部13と、マイク14と、スピーカ15と、記憶部16と、CPU(Central Processing Unit)17とを備えている。これらの構成要素は、バス18を介して相互に通信可能に接続されている。
通信部11は、例えば、複数のイーサネット(登録商標)ポートや複数のUSB等のデジタル入出力ポート、無線LANポート等を含んで構成され、CPU17による制御に基づいて、ネットワークNWを介して音声認識サーバ20や他の装置等と通信を行う。
表示部12は、画像やテキスト等の情報を表示するディスプレイであり、例えば、液晶ディスプレイパネル、有機EL(ElectroLuminescence)ディスプレイパネルなどを含んで構成される。操作入力部13は、例えば、キーボードやマウス、タッチパッドなどの入力装置であり、ユーザの操作入力を受け付け、受け付けた操作入力に基づく操作信号を出力する。なお、操作入力部13は、タッチパネルとしてディスプレイ(表示部12)と一体に構成されてもよい。
マイク14は、周囲の音を検知して音信号に変換して出力する。例えば、マイク14は、ユーザの発話などの音声が入力されると入力された音声を音声信号に変換して出力する。スピーカ15は、音声アシスト機能による応答として生成された音声信号などに基づいて、音声を出力する。
記憶部16は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、端末10が処理する各種情報や画像、プログラム等を記憶する。なお、記憶部16は、端末10に内蔵されるものに限らず、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置でもよい。
CPU17は、記憶部16に記憶されている各種プログラムを実行し、端末10の各部を制御する。なお、端末10は、不図示のカメラ、ジャイロセンサ、GPS(Global Positioning System)受信モジュールなどのハードウェア構成を含んで構成されてもよい。
次に図4を参照して、端末10の機能構成について説明する。図4は、本実施形態に係る端末10の機能構成の一例を示すブロック図である。端末10は、記憶部16に記憶されているプログラム(例えば、音声アシスタント制御プログラム)をCPU17が実行することにより実現される機能構成として、制御部170を備えている。図4は、本実施形態に係る端末10が備える制御部170の機能構成の一例を示すブロック図である。制御部170は、入力制御部171と、出力制御部172と、音声検出部173と、キーワード検出部174と、音声アシスタント部175とを備えている。
入力制御部171は、操作入力部13から出力される操作信号を取得する。また、入力制御部171は、マイク14から出力された音信号を取得する。
出力制御部172は、表示部12の表示を制御する。また、出力制御部172は、スピーカ15から出力する音(例えば、音声)を制御する。
音声検出部173は、周囲の音から音声(人の声)を検出する。例えば、音声検出部173は、入力制御部171を介してマイク14から取得した音信号に対して周波数解析を行うことにより、マイク14に入力された音の中から音声を検出する。また、音声検出部173は、音声が検出されていない状態が一定時間(例えば、2秒)以上続いた後(即ち、一定時間の沈黙(音声なし)の後)に音声を検出した場合にキーワード検出部174による処理に移行させる。例えば、音声検出部173は、予め設定された第1の判定時間と比較することにより、音声が検出されていない状態が一定時間以上続いたか否かを判定する。この第1の判定時間は、会話が連続していないと判定するため判定閾値として予め設定されている。以下では、この第1の判定時間のことを、「音声検出判定時間」ともいう。
例えば、音声検出部173は、「Phase1」(図1参照)において、音声が検出されていない状態が音声検出判定時間以上続いた後に音声を検出した場合、一定時間の沈黙(音声なし)の後に音声を検出したため、「Phase2」(図1参照)に移行させる。一方、音声検出部173は、「Phase1」において、連続的(或いは断続的に)に音声を検出しており音声が検出されていない状態が音声検出判定時間以上続かない場合には、音声を検出しても、「Phase2」に移行させないで、音声検出処理を継続する。
キーワード検出部174は、音声検出部173により音声が検出されていない状態が一定時間以上続いた後に音声が検出された場合、音声検出部173により検出された音声にキーワードが含まれているか否かを検出する。例えば、キーワード検出部174は、音声検出部173により検出された音声と、予め設定されているキーワード(音声アシスタントを起動させるためのキーワード)とを照合することにより、音声にキーワードが含まれているか否かを検出する。
また、キーワード検出部174は、音声検出部173により音声が検出されていない状態が一定時間以上続いた後に音声が検出されてから(即ち、「Phase1」から「Phase2」に移行してから)一定時間(例えば、5秒)以内にキーワードが含まれていた場合には、音声アシスタントを起動させる指示を行う(即ち、「Phase3」(図1参照)に移行させる)。例えば、キーワード検出部174は、予め設定された第2の判定時間と比較することにより、「Phase2」に移行してから一定時間以内にキーワードが含まれていたか否かを判定する。この第2の判定時間は、一定時間以上会話が続いていない(即ち、一連の会話の途中ではない)と判定するため判定閾値として予め設定されている。以下では、この第2の判定時間のことを、「キーワード検出判定時間」ともいう。
例えば、キーワード検出部174は、「Phase2」に移行してからキーワード検出判定時間以内にキーワードを検出した場合には、一定時間以内にキーワードが含まれているため、ユーザが音声アシスタントを利用する意思を持ってキーワードを話しかけたと判定する。そして、キーワード検出部174は、音声アシスタントを起動させる指示を行い、「Phase3」に移行させる。
一方、キーワード検出部174は、「Phase2」に移行してからキーワード検出判定時間以内にキーワードを検出できなかった場合には、一定時間以内にキーワードが含まれていないため、例えそれ以降にキーワードを検出したとしても、一連の会話の途中にたまたまキーワードが含まれたものであると判定する。そのため、キーワード検出部174は、音声アシスタントを起動させる指示を行わない(即ち、「Phase3」に移行させない)。例えば、キーワード検出部174は、キーワード検出判定時間以内にキーワードを検出できなかった場合には、キーワード検出処理を中止して、「Phase1」に戻してもよい。
音声アシスタント部175は、キーワード検出部174から音声アシスタントを起動させる指示を受け取ると、音声アシスタントを起動する。例えば、音声アシスタント部175は、音声アシスタントを起動するとともに、起動したことを示す起動音または音声を、出力制御部172を介してスピーカ15から出力させる。また、音声アシスタント部175は、音声アシスタントを起動すると、マイク14により検出された音声(ユーザの発話)に対して音声認識を行う。具体的には、音声アシスタント部175は、マイク14により検出された音声の音声信号を、通信部11を介して音声認識サーバ20に送信することにより、音声認識サーバ20で行われた音声認識の認識結果である音声の内容(ユーザの発話内容)を示す情報を取得する。そして、音声アシスタント部175は、取得した認識結果に基づく応答処理を実行する。例えば、音声アシスタント部175は、ユーザの発話内容に応じて、天気情報、ニュース、お店や観光地などの情報を音声または映像で出力させたり、動画コンテンツや音楽コンテンツなどをストリーミング再生させたりする。
(判定時間の設定例)
次に、音声検出判定時間及びキーワード検出判定時間の設定例を説明する。上述したように、音声検出判定時間は、会話が連続していないと判定するための判定閾値であり、音声検出部173が、音声が検出されていない状態が一定時間以上続いたか否か(即ち、一定時間の沈黙(音声なし)があったか否か)を判定する際に使用する判定時間である。一方、キーワード検出判定時間は、一定時間以上会話が続いていないと判定するため判定閾値であり、キーワード検出部174が、「Phase2」の処理に移行してから一定時間以内にキーワードが含まれていたか否かを判定する際に使用する判定時間である。
音声検出判定時間は、例えば、2〜5秒に設定されている。さらに、より詳細には、音声検出判定時間は、一例として2秒に設定されてもよい。一方、キーワード検出判定時間は、例えば、5〜10秒に設定されている。さらに、より詳細には、キーワード検出判定時間は、一例として5秒に設定されてもよい。
なお、上記の例では、音声検出判定時間よりキーワード検出判定時間の方が長く設定されているが、音声検出判定時間よりキーワード検出判定時間の方が短く設定されてもよい。例えば、音声検出判定時間が3〜5秒に設定され、キーワード検出判定時間が2〜4秒に設定されてもよい。さらに、より詳細には一例として、音声検出判定時間が3秒に設定され、キーワード検出判定時間が2秒に設定されてもよい。なお、音声検出判定時間とキーワード検出判定時間との長さが同じに設定されてもよい。
また、会話の速度には地域や言語の種類によって異なることも考えられる。そのため、音声検出判定時間及びキーワード検出判定時間の一方または両方は、PCの地域設定または言語設定に基づいて設定されてもよい。例えば、PCの初期設定で選択する「国」または「言語設定」の選択肢のそれぞれに対して、音声検出判定時間及びキーワード検出判定時間の一方または両方の値がそれぞれ関連付けられていてもよい。そして、PCの初期設定で「国」または「言語設定」が選択されたことに応じて、選択された「国」または「言語設定」に関連付けられている音声検出判定時間及びキーワード検出判定時間の一方または両方が設定されてもよい。
また、会話の速度には個人差もある。そのため、音声検出判定時間及びキーワード検出判定時間の一方または両方は、ユーザにより設定可能としてもよい。例えば、音声検出判定時間及びキーワード検出判定時間の一方または両方は、ユーザが任意の時間を設定可能なようにしてもよいし、予め決められた複数の設定時間の中から任意に選択可能なようにしてもよい。また、音声検出判定時間及びキーワード検出判定時間の両方ともユーザにより設定可能な場合、それぞれ個別に設定可能なようにしてもよいし、両方の設定が組みとなった選択肢の中から選択可能なようにしてもよい。また、時間を設定するのではなく、「早め」、「普通」、「ゆっくり」などのような項目の中からユーザが選択することで、選択された項目に対応して予め設定されている音声検出判定時間及びキーワード検出判定時間が設定されてもよい。
(音声アシスタント起動処理の動作)
次に図5を参照して、端末10の制御部170が、ユーザが発話するキーワードを検出することにより音声アシスタントを起動する音声アシスタント起動処理の動作について説明する。図5は、本実施形態に係る音声アシスタント起動処理の一例を示すフローチャートである。なお、ここでは、端末10において音声アシスタントの使用の有効/無効(Enable/Disable)が設定可能な場合には、有効(Enable)に設定されているものとして説明する。
以下のステップS101〜S105の処理が「Phase1」に相当する。
(ステップS101)端末10が起動すると、音声検出部173は、入力制御部171を介してマイク14から取得した音信号に基づいて、周囲の音から音声(人の声)を検出する音声検出処理を開始する。そして、ステップS103の処理に進む。
(ステップS103)音声検出部173は、音声が検出されていない状態が一定時間以上続いたか否かを判定する。そして、音声検出部173は、音声が検出されていない状態が一定時間(音声検出判定時間)以上続いていないと判定した場合(NO)にはステップS103の処理を継続し、一定時間以上続いたと判定した場合(YES)にはステップS105の処理に進む。
(ステップS105)音声検出部173は、音声(人の声)を検出したか否かを判定する。そして、音声検出部173は、音声(人の声)を検出していないと判定した場合(NO)にはステップS103の処理に戻し、音声(人の声)を検出した場合(YES)にはステップS107の処理に進む。つまり、音声検出部173は、一定時間以上の沈黙の後に音声を検出した場合に、ステップS107の処理に進む(即ち、「Phase2」に移行)。
次のステップS107〜S111の処理が「Phase2」に相当する。
(ステップS107)キーワード検出部174は、音声検出部173により検出された音声と、予め設定されているキーワード(音声アシスタントを起動させるためのキーワード)とを照合(キーワードマッチング)することにより、音声からキーワードを検出する。そして、ステップS109の処理に進む。
(ステップS109)キーワード検出部174は、上記キーワードマッチングの結果に基づいて、音声検出部173により検出された音声からキーワードを検出したか否かを判定する。そして、キーワード検出部174は、キーワードを検出していない場合(NO)にはステップS111の処理に進み、キーワードを検出した場合(YES)にはステップS113の処理に進む(即ち、「Phase3」に移行)。
(ステップS111)キーワード検出部174は、ステップS105において音声が検出されてから(即ち、「Phase2」に移行してから)の経過時間(即ち、キーワードが未検出である時間)が一定時間(キーワード検出判定時間)以内であるか否かを判定する。そして、キーワード検出部174は、キーワードが未検出である時間が一定時間以内であると判定した場合(YES)には、ステップS107の処理に戻してキーワード検出処理を続ける。一方、キーワード検出部174は、キーワードが未検出である時間が一定時間を超えたと判定した場合(NO)には、キーワード検出処理を停止して、ステップS103の処理に戻す(即ち、「Phase1」に戻す)。
つまり、キーワード検出部174は、ステップS105において音声が検出されてから(即ち、「Phase2」に移行してから)一定時間以内にキーワードを検出した場合、ステップS113の処理(「Phase3」)に進む。
次のステップS113の処理が「Phase3」に相当する。
(ステップS113)音声アシスタント部175は、音声アシスタントを起動するとともに、起動したことを示す起動音または音声を、出力制御部172を介してスピーカ15から出力させる。
次に、音声アシスタント起動処理の変形例について説明する。
「Phase1」の音声検出処理において、端末10の起動後の初回は、音声が検出されていない状態が一定時間(音声検出判定時間)以上続いているか否かに関わらず、音声(人の声)を検出した場合には「Phase2」に移行してもよい。
図6は、本実施形態に係る音声アシスタント起動処理の変形例を示すフローチャートである。図6に示すステップS201〜S213の各処理は、図5に示すステップS101〜S113の各処理と対応しており、「Phase1」の処理のみが異なる。
(ステップS201)端末10が起動すると、音声検出部173は、入力制御部171を介してマイク14から取得した音信号に基づいて、周囲の音から音声(人の声)を検出する音声検出処理を開始する。そして、ステップS205の処理に進む。
(ステップS205)音声検出部173は、音声(人の声)を検出したか否かを判定する。そして、音声検出部173は、音声(人の声)を検出していないと判定した場合(NO)にはステップS205の処理を継続し、音声(人の声)を検出した場合(YES)にはステップS207の処理に進む。つまり、音声検出部173は、一定時間以上の沈黙の有無に関わらず、音声を検出した場合には、ステップS207の処理に進む(即ち、「Phase2」に移行)。
一方、「Phase2」へ一旦移行した後に「Phase1」に戻った場合には、一定時間以上の沈黙の後に音声を検出した場合にステップS207の処理に進む(即ち、「Phase2」に移行)。具体的には、「Phase2」のステップS211において、キーワード検出部174は、キーワードが未検出である時間が一定時間を超えたと判定した場合(NO)には、キーワード検出処理を停止して、ステップS203の処理に戻す(即ち、「Phase1」に戻す)。
(ステップS203)音声検出部173は、音声が検出されていない状態が一定時間以上続いたか否かを判定する。そして、音声検出部173は、音声が検出されていない状態が一定時間(音声検出判定時間)以上続いていないと判定した場合(NO)にはステップS203の処理を継続し、一定時間以上続いたと判定した場合(YES)にはステップS205の処理に進む。これにより、「Phase2」へ一旦移行した後に「Phase1」に戻った場合には、音声検出部173は、一定時間以上の沈黙の後に音声を検出した場合に、ステップS207の処理に進む(即ち、「Phase2」に移行)。
(各処理の消費電力について)
次に、「Phase1」、「Phase2」、「Phase3」の各処理の消費電力について説明する。「Phase1」、「Phase2」、「Phase3」の各処理では、処理が異なるため消費電力が異なる。「Phase1」及び「Phase2」は、音声アシスタントが起動していないため「Phase3」よりは消費電力が低いが、「Phase1」と「Phase2」とでも消費電力は異なる。「Phase1」が音声検出処理であるのに対して「Phase2」では音声検出処理に加えてキーワード検出処理が行われるため、「Phase1」より「Phase2」の方が消費電力は高くなる。一例として、「Phase1」の消費電力が500μW程度であるのに対し、「Phase2」の消費電力は70mW程度になる。よって、本実施形態において、「Phase2」において、一定時間以内にキーワードが検出されない場合に「Phase1」に戻すことで、「Phase2」を継続する場合よりも消費電力を低減することができる。
以上説明したように、本実施形態に係る端末10(電子機器の一例)は、音声検出部173(第1処理部の一例)と、キーワード検出部174(第2処理部の一例)と、音声アシスタント部175(第3処理部の一例)とを備えている。音声検出部173は、「Phase1」(第1の処理)において、周囲の音から音声を検出するとともに、音声が検出されていない状態が一定時間(第1の判定時間、音声検出判定時間)以上続いた後に音声を検出した場合に「Phase2」(第2の処理)に移行させる。キーワード検出部174は、「Phase2」において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、「Phase2」に移行してから一定時間(第2の判定時間、キーワード検出判定時間)以内にキーワード(特定の言葉)が含まれていた場合には「Phase3」(第3の処理)に移行させ、一定時間(第2の判定時間、キーワード検出判定時間)以内にキーワードが含まれていない場合には「Phase3」に移行させない。音声アシスタント部175は、「Phase3」において、音声アシスタント(特定の機能の一例)を起動する。例えば、音声アシスタント部175は、検出された音声に対して音声認識が行われることにより認識された音声の内容に基づく応答処理を実行する。
これにより、端末10は、一定時間の沈黙(音声なし)の後の一定時間以内にキーワードが検出された場合に音声アシスタントを起動させるため、キーワードが一連の会話の中に含まれていた場合、またはキーワードに音として似ている言葉が会話の中に含まれていた場合などに、ユーザが利用する意思が無いのに音声アシスタントが起動してしまうことを抑制できる。よって、端末10は、ユーザが利用する意思が無いのに音声アシスタントが起動してしまうことを抑制することができる。したがって、端末10は、キーワードを話しかけることにより音声アシスタントを実行させる際の誤認識率を低減することができる。また、端末10は、ユーザの意図しないタイミングで音声アシスタントが反応してしまうことを抑制できるため、会話や作業が途切れてしまうことを低減できるとともに、常に音声アシスタントによって聞き耳を立てられている感覚から解放され、音声アシスタントの使用に対する不快感の解消に繋げることができる。
また、キーワード検出部174は、「Phase2」に移行してから一定時間(第2の判定時間、キーワード検出判定時間)以内にキーワードが含まれていない場合には「Phase1」に移行させてもよい。
これにより、端末10は、「Phase1」において音声を検出したことにより「Phase2」に移行してキーワード検出を開始しても、一定時間以内にキーワードが検出されない場合にはキーワード検出を停止して「Phase1」に戻すため、キーワードが検出するまで「Phase2」のキーワード検出処理を継続する場合に比べて、消費電力を低減することができる。
なお、キーワード検出部174は、「Phase2」に移行してから一定時間(第2の判定時間、キーワード検出判定時間)以内にキーワードが含まれていない場合には、「Phase1」に移行させずに、その後キーワードが検出されたとしても「Phase2」のままとしてもよい。この場合、「Phase1」に移行させることによる低消費電力化の効果はないが、「Phase3」には移行させないことにより、キーワードが一連の会話の中に含まれていた場合、またはキーワードに音として似ている言葉が会話の中に含まれていた場合などに、ユーザが利用する意思が無いのに音声アシスタントが起動してしまうことは同様に抑制できる。また、この場合には、音声検出部173により音声が検出されていない状態が一定時間(第1の判定時間、音声検出判定時間)以上続いたことが検出された場合に、キーワード検出部174は、「Phase2」に移行してからカウントする時間をリセットして、再び、一定時間(第2の判定時間、キーワード検出判定時間)以内にキーワードが含まれているか否かを判定してもよい。
また、上記音声検出判定時間及びキーワード検出判定時間の少なくとも一方は、地域設定または言語設定に基づいて設定されてもよい。これにより、端末10は、地域性や言語の特性によって会話の速度が異なる場合でも、キーワードを適切に検出することができる。
また、上記音声検出判定時間及びキーワード検出判定時間の少なくとも一方は、ユーザにより設定可能な構成としてもよい。これにより、端末10は、会話の速度に個人差がある場合でも、使用するユーザが自身の会話の速度に合わせて設定することが可能であるため、キーワードを適切に検出することができる。
なお、上記実施形態では、音声認識サーバ20を備えたクラウド環境において音声認識処理が行われる構成例を説明したが、端末10が音声認識処理を行う機能を備えてもよい。
また、上記実施形態では、「Phase3」で起動する機能が音声アシスタントである例を説明したが、音声アシスタントに限られるものではない。例えば、「Phase3」で起動する機能は、特定のアプリケーションソフトや、他のPCの電源スイッチ、通信機能を有する家電(所謂、IOT家電、スマート家電)の電源スイッチなど、様々な機能にも適用することができる。よって、端末10は、一定時間の沈黙(音声なし)の後の一定時間以内にキーワードが検出された場合に特定の機能を起動させるため、キーワードが一連の会話の中に含まれていた場合、またはキーワードに音として似ている言葉が会話の中に含まれていた場合などに、ユーザが利用する意思が無いのに特定の機能が起動してしまうことを抑制できる。よって、端末10は、ユーザが利用する意思が無いのに特定の機能が起動してしまうことを抑制することができる。したがって、端末10は、キーワードを話しかけることにより特定の機能を実行させる際の誤認識率を低減することができる。
なお、上述した端末10は、内部にコンピュータシステムを有している。そして、上述した端末10が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述した端末10が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末10が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した実施形態における端末10が備える各機能の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
1 音声アシスタントシステム、10 端末、11 通信部、12 表示部、13 操作入力部、14 マイク、15 スピーカ、16 記憶部、17 CPU、20 音声認識サーバ、170 制御部、171 入力制御部、172 出力制御部、173 音声検出部、174 キーワード検出部、175 音声アシスタント部

Claims (7)

  1. 第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理部と、
    前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理部と、
    前記第3の処理において、特定の機能を起動する第3処理部と、
    を備える電子機器。
  2. 前記第2処理部は、
    前記第2の処理に移行してから前記第2の時間以内に特定の言葉が含まれていない場合には前記第1の処理に移行させる、
    請求項1に記載の電子機器。
  3. 前記第3処理部は、
    前記第3の処理において、検出された音声に対して音声認識が行われることにより認識された音声の内容に基づく応答処理を実行する、
    を備える請求項1または請求項2に記載の電子機器。
  4. 前記第1の時間及び前記第2の時間の少なくとも一方は地域設定または言語設定に基づいて設定される、
    請求項1から請求項3のいずれか一項に記載の電子機器。
  5. 前記第1の時間及び前記第2の時間の少なくとも一方はユーザにより設定可能である、
    請求項1から請求項4のいずれか一項に記載の電子機器。
  6. 電子機器における制御方法であって、
    第1処理部が、第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理ステップと、
    第2処理部が、前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理ステップと、
    第3処理部が、前記第3の処理において、特定の機能を起動する第3処理ステップと、
    を有する制御方法。
  7. コンピュータに、
    第1の処理において、周囲の音から音声を検出するとともに、音声が検出されていない状態が第1の時間以上続いた後に音声を検出した場合に第2の処理に移行させる第1処理ステップと、
    前記第2の処理において、周囲の音から検出された音声に特定の言葉が含まれているか否かを検出するとともに、前記第2の処理に移行してから第2の時間以内に特定の言葉が含まれていた場合には第3の処理に移行させ、前記第2の時間以内に特定の言葉が含まれていない場合には前記第3の処理に移行させない第2処理ステップと、
    前記第3の処理において、特定の機能を起動する第3処理ステップと、
    を実行させるためのプログラム。
JP2018099859A 2018-05-24 2018-05-24 電子機器、制御方法、及びプログラム Pending JP2019204025A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018099859A JP2019204025A (ja) 2018-05-24 2018-05-24 電子機器、制御方法、及びプログラム
US16/106,071 US10748536B2 (en) 2018-05-24 2018-08-21 Electronic device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099859A JP2019204025A (ja) 2018-05-24 2018-05-24 電子機器、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2019204025A true JP2019204025A (ja) 2019-11-28

Family

ID=68614149

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099859A Pending JP2019204025A (ja) 2018-05-24 2018-05-24 電子機器、制御方法、及びプログラム

Country Status (2)

Country Link
US (1) US10748536B2 (ja)
JP (1) JP2019204025A (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10743101B2 (en) 2016-02-22 2020-08-11 Sonos, Inc. Content mixing
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10531157B1 (en) * 2017-09-21 2020-01-07 Amazon Technologies, Inc. Presentation and management of audio and visual content across devices
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
US10600408B1 (en) * 2018-03-23 2020-03-24 Amazon Technologies, Inc. Content output management based on speech quality
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11100930B1 (en) * 2018-10-05 2021-08-24 Facebook, Inc. Avoiding false trigger of wake word from remote device during call
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
EP3709194A1 (en) 2019-03-15 2020-09-16 Spotify AB Ensemble-based data comparison
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11094319B2 (en) 2019-08-30 2021-08-17 Spotify Ab Systems and methods for generating a cleaned version of ambient sound
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
FR3103307B1 (fr) * 2019-11-18 2021-10-15 Sagemcom Broadband Sas Assistant vocal économe en ressource de calcul
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11308959B2 (en) 2020-02-11 2022-04-19 Spotify Ab Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices
US11328722B2 (en) * 2020-02-11 2022-05-10 Spotify Ab Systems and methods for generating a singular voice audio stream
US11308962B2 (en) * 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) * 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11676599B2 (en) 2021-05-10 2023-06-13 International Business Machines Corporation Operational command boundaries

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6202050B1 (en) * 1999-02-16 2001-03-13 E. Lead Electronic Co., Ltd. Without losing words of voice activate transmitting device for two way radio
WO2002050817A1 (en) * 2000-12-20 2002-06-27 Koninklijke Philips Electronics N.V. Speechdriven setting of a language of interaction
TWI235358B (en) * 2003-11-21 2005-07-01 Acer Inc Interactive speech method and system thereof
US8095081B2 (en) * 2004-04-29 2012-01-10 Sony Ericsson Mobile Communications Ab Device and method for hands-free push-to-talk functionality
US8825482B2 (en) * 2005-09-15 2014-09-02 Sony Computer Entertainment Inc. Audio, video, simulation, and user interface paradigms
US8611560B2 (en) * 2007-04-13 2013-12-17 Navisense Method and device for voice operated control
US20090029679A1 (en) * 2007-07-25 2009-01-29 Teng Hu System and method to provide a mobile phone caller with a likely response time
JP4949190B2 (ja) 2007-10-18 2012-06-06 レノボ・シンガポール・プライベート・リミテッド 携帯式コンピュータおよび筐体構造
US8370142B2 (en) * 2009-10-30 2013-02-05 Zipdx, Llc Real-time transcription of conference calls
US9224396B2 (en) * 2010-06-02 2015-12-29 Nokia Technologies Oy Enhanced context awareness for speech recognition
US9330675B2 (en) * 2010-11-12 2016-05-03 Broadcom Corporation Method and apparatus for wind noise detection and suppression using multiple microphones
US8731912B1 (en) * 2013-01-16 2014-05-20 Google Inc. Delaying audio notifications
US20140297288A1 (en) * 2013-03-29 2014-10-02 Orange Telephone voice personal assistant
CA2897539C (en) * 2013-04-04 2016-05-17 James S. RAND Unified communications system and method
US10080054B2 (en) * 2013-04-26 2018-09-18 Texas Instruments Incorporated Automatic time extension of program recording
US9472206B2 (en) * 2013-06-17 2016-10-18 Google Technology Holdings LLC Privacy mode for always-on voice-activated information assistant
US9240182B2 (en) * 2013-09-17 2016-01-19 Qualcomm Incorporated Method and apparatus for adjusting detection threshold for activating voice assistant function
US10770075B2 (en) * 2014-04-21 2020-09-08 Qualcomm Incorporated Method and apparatus for activating application by speech input
US9858920B2 (en) * 2014-06-30 2018-01-02 GM Global Technology Operations LLC Adaptation methods and systems for speech systems
US10360926B2 (en) * 2014-07-10 2019-07-23 Analog Devices Global Unlimited Company Low-complexity voice activity detection
US20160085498A1 (en) * 2014-09-24 2016-03-24 Motorola Solutions, Inc. Method and apparatus for muting a device
US9254798B1 (en) * 2014-09-24 2016-02-09 General Motors Llc Vehicle telematics unit power management
KR102299330B1 (ko) * 2014-11-26 2021-09-08 삼성전자주식회사 음성 인식 방법 및 그 전자 장치
US9600231B1 (en) * 2015-03-13 2017-03-21 Amazon Technologies, Inc. Model shrinking for embedded keyword spotting
US9875081B2 (en) * 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US9946862B2 (en) * 2015-12-01 2018-04-17 Qualcomm Incorporated Electronic device generating notification based on context data in response to speech phrase from user
US9940929B2 (en) * 2015-12-09 2018-04-10 Lenovo (Singapore) Pte. Ltd. Extending the period of voice recognition
US10388280B2 (en) * 2016-01-27 2019-08-20 Motorola Mobility Llc Method and apparatus for managing multiple voice operation trigger phrases
US10965800B2 (en) * 2016-05-20 2021-03-30 Huawei Technologies Co., Ltd. Interaction method in call and device
US10431211B2 (en) * 2016-07-29 2019-10-01 Qualcomm Incorporated Directional processing of far-field audio
US10431188B1 (en) * 2016-08-19 2019-10-01 Amazon Technologies, Inc. Organization of personalized content
JP6497372B2 (ja) * 2016-09-29 2019-04-10 トヨタ自動車株式会社 音声対話装置および音声対話方法
US10165108B1 (en) * 2016-10-11 2018-12-25 Amazon Technologies, Inc. Lock screen optimizations
US11003417B2 (en) * 2016-12-15 2021-05-11 Samsung Electronics Co., Ltd. Speech recognition method and apparatus with activation word based on operating environment of the apparatus
US10559309B2 (en) * 2016-12-22 2020-02-11 Google Llc Collaborative voice controlled devices
US10616726B1 (en) * 2018-02-22 2020-04-07 Amazon Technologies, Inc. Outputing notifications using device groups
US10490207B1 (en) * 2018-05-11 2019-11-26 GM Global Technology Operations LLC Automated speech recognition using a dynamically adjustable listening timeout

Also Published As

Publication number Publication date
US10748536B2 (en) 2020-08-18
US20190362714A1 (en) 2019-11-28

Similar Documents

Publication Publication Date Title
JP2019204025A (ja) 電子機器、制御方法、及びプログラム
CN108829235B (zh) 语音数据处理方法和支持该方法的电子设备
EP3567584B1 (en) Electronic apparatus and method for operating same
US10332524B2 (en) Speech recognition wake-up of a handheld portable electronic device
GB2536798B (en) Low power detection of an activation phrase
US20200410985A1 (en) Method, apparatus, and storage medium for segmenting sentences for speech recognition
EP3132341B1 (en) Systems and methods for providing prompts for voice commands
US10811005B2 (en) Adapting voice input processing based on voice input characteristics
US20150074524A1 (en) Management of virtual assistant action items
CN105793921A (zh) 基于部分热词发起动作
EP3444811B1 (en) Speech recognition method and device
WO2021031308A1 (zh) 音频处理方法、装置及存储介质
CN106257410B (zh) 用于声音辅助输入的多模式消岐的方法、电子装置和设备
JP2020003925A (ja) 対話システムの制御方法、対話システム及びプログラム
US10269347B2 (en) Method for detecting voice and electronic device using the same
CN108681474A (zh) 应用预加载方法、装置、存储介质及终端
US10929009B2 (en) Electronic device for outputting graphic indication
JP2021532486A (ja) ホットワード認識および受動的支援
CN112219235A (zh) 包括处理用户语音的电子设备和控制电子设备上语音识别的方法的系统
EP3716268A1 (en) Speech input device, speech input method, and program therefor
KR20190092168A (ko) 보이스 리스폰스를 제공하는 방법 및 그 장치
KR20100067371A (ko) 휴대단말기의 음성 인식을 이용한 웹 페이지 제공 방법 및 장치
WO2014103355A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020160430A (ja) 音声入力装置、音声入力方法及びそのプログラム