JP2020522019A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2020522019A5 JP2020522019A5 JP2019566117A JP2019566117A JP2020522019A5 JP 2020522019 A5 JP2020522019 A5 JP 2020522019A5 JP 2019566117 A JP2019566117 A JP 2019566117A JP 2019566117 A JP2019566117 A JP 2019566117A JP 2020522019 A5 JP2020522019 A5 JP 2020522019A5
- Authority
- JP
- Japan
- Prior art keywords
- user
- volume level
- time
- voice
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
上記に説明されるシステムおよび/または方法は、本開示に説明される他のシステム、方法、および/または装置に適用される、またはそれに従って使用され得ることに留意されたい。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが、他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目2)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を含む、方法。
(項目3)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することあって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することあって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目4)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目3に記載の方法。
(項目5)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目3に記載の方法。
(項目6)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目3に記載の方法。
(項目7)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目2に記載の方法。
(項目8)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目2に記載の方法。
(項目9)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目10)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目2に記載の方法。
(項目11)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目2に記載の方法。
(項目12)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
制御回路であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較して、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を行うように構成される、制御回路
を備える、システム。
(項目13)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目14)
前記制御回路はさらに、
前記時間周期を決定するように構成され、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目13に記載のシステム。
(項目15)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目16)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
を行うように構成され、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目13に記載のシステム。
(項目17)
前記制御回路はさらに、
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
を行うように構成される、項目12に記載のシステム。
(項目18)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
を行うように構成され、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目12に記載のシステム。
(項目19)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目20)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
を行うように構成される、項目12に記載のシステム。
(項目21)
前記制御回路は、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
によって、前記第1の音量レベルを決定するように構成される、項目12に記載のシステム。
(項目22)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための手段と、
前記音声コマンドの第1の音量レベルを決定するための手段であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、手段と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための手段と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための手段と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための手段であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、手段と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための手段と
を備える、システム。
(項目23)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目24)
前記時間周期を決定するための手段をさらに備え、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための手段と
を備える、項目23に記載のシステム。
(項目25)
第2の可聴応答を生成するための前記手段は、
第3の音量レベルを決定するための手段であって、前記第3の音量レベルは、前記第2の音量レベルを上回る、手段
を備え、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目23に記載のシステム。
(項目26)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための手段と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための手段と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目23に記載のシステム。
(項目27)
前記ユーザから確認応答を受信するための手段であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、手段と、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための手段と
をさらに備える、項目22に記載のシステム。
(項目28)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための手段と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための手段と
をさらに備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目22に記載のシステム。
(項目29)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目30)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
前記視覚表現を前記ディスプレイデバイスに伝送するための手段と
をさらに備える、項目22に記載のシステム。
(項目31)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための手段と、
背景雑音のレベルを決定するための手段と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための手段と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための手段と
を備える、項目22に記載のシステム。
(項目32)
非一過性の機械可読命令を備える非一過性の機械可読媒体であって、前記命令は、音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するために前記非一過性の機械可読媒体の上にエンコードされており、前記命令は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための命令と、
前記音声コマンドの第1の音量レベルを決定するための命令であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、命令と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための命令と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための命令と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための命令であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、命令と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための命令と
を備える、非一過性の機械可読媒体。
(項目33)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目34)
前記命令はさらに、
前記時間周期を決定するための命令を備え、
前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための命令と
を備える、項目33に記載の非一過性の機械可読媒体。
(項目35)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目36)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための命令と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための命令と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目33に記載の非一過性の機械可読媒体。
(項目37)
前記命令はさらに、
前記ユーザから確認応答を受信するための命令であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、命令と、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目38)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための命令と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための命令と
を備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目32に記載の非一過性の機械可読媒体。
(項目39)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目40)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
前記視覚表現を前記ディスプレイデバイスに伝送するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目41)
前記命令はさらに、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための命令と、
背景雑音のレベルを決定するための命令と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための命令と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目42)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目43)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42に記載の方法。
(項目44)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目43に記載の方法。
(項目45)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目43に記載の方法。
(項目46)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目42−45のいずれかに記載の方法。
(項目47)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目42−46のいずれかに記載の方法。
(項目48)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目42−47のいずれかに記載の方法。
(項目49)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42−48のいずれかに記載の方法。
(項目50)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目42−49のいずれかに記載の方法。
(項目51)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目42−50のいずれかに記載の方法。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが、他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目2)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を含む、方法。
(項目3)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することあって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することあって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目4)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目3に記載の方法。
(項目5)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目3に記載の方法。
(項目6)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目3に記載の方法。
(項目7)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目2に記載の方法。
(項目8)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目2に記載の方法。
(項目9)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目10)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目2に記載の方法。
(項目11)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目2に記載の方法。
(項目12)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
制御回路であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較して、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を行うように構成される、制御回路
を備える、システム。
(項目13)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目14)
前記制御回路はさらに、
前記時間周期を決定するように構成され、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目13に記載のシステム。
(項目15)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目16)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
を行うように構成され、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目13に記載のシステム。
(項目17)
前記制御回路はさらに、
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
を行うように構成される、項目12に記載のシステム。
(項目18)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
を行うように構成され、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目12に記載のシステム。
(項目19)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目20)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
を行うように構成される、項目12に記載のシステム。
(項目21)
前記制御回路は、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
によって、前記第1の音量レベルを決定するように構成される、項目12に記載のシステム。
(項目22)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための手段と、
前記音声コマンドの第1の音量レベルを決定するための手段であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、手段と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための手段と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための手段と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための手段であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、手段と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための手段と
を備える、システム。
(項目23)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目24)
前記時間周期を決定するための手段をさらに備え、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための手段と
を備える、項目23に記載のシステム。
(項目25)
第2の可聴応答を生成するための前記手段は、
第3の音量レベルを決定するための手段であって、前記第3の音量レベルは、前記第2の音量レベルを上回る、手段
を備え、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目23に記載のシステム。
(項目26)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための手段と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための手段と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目23に記載のシステム。
(項目27)
前記ユーザから確認応答を受信するための手段であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、手段と、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための手段と
をさらに備える、項目22に記載のシステム。
(項目28)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための手段と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための手段と
をさらに備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目22に記載のシステム。
(項目29)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目30)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
前記視覚表現を前記ディスプレイデバイスに伝送するための手段と
をさらに備える、項目22に記載のシステム。
(項目31)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための手段と、
背景雑音のレベルを決定するための手段と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための手段と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための手段と
を備える、項目22に記載のシステム。
(項目32)
非一過性の機械可読命令を備える非一過性の機械可読媒体であって、前記命令は、音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するために前記非一過性の機械可読媒体の上にエンコードされており、前記命令は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための命令と、
前記音声コマンドの第1の音量レベルを決定するための命令であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、命令と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための命令と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための命令と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための命令であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、命令と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための命令と
を備える、非一過性の機械可読媒体。
(項目33)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目34)
前記命令はさらに、
前記時間周期を決定するための命令を備え、
前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための命令と
を備える、項目33に記載の非一過性の機械可読媒体。
(項目35)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目36)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための命令と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための命令と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目33に記載の非一過性の機械可読媒体。
(項目37)
前記命令はさらに、
前記ユーザから確認応答を受信するための命令であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、命令と、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目38)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための命令と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための命令と
を備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目32に記載の非一過性の機械可読媒体。
(項目39)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目40)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
前記視覚表現を前記ディスプレイデバイスに伝送するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目41)
前記命令はさらに、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための命令と、
背景雑音のレベルを決定するための命令と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための命令と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目42)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目43)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42に記載の方法。
(項目44)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目43に記載の方法。
(項目45)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目43に記載の方法。
(項目46)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目42−45のいずれかに記載の方法。
(項目47)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目42−46のいずれかに記載の方法。
(項目48)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目42−47のいずれかに記載の方法。
(項目49)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42−48のいずれかに記載の方法。
(項目50)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目42−49のいずれかに記載の方法。
(項目51)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目42−50のいずれかに記載の方法。
Claims (10)
- 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの前記音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの前記第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項1に記載の方法。 - 前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、請求項2に記載の方法。 - 前記第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項2に記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記第2の音声動作型ユーザデバイスと関連付けられる音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項1〜4のいずれかに記載の方法。 - 前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、請求項1〜4のいずれかに記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルは、前記最低ユーザ音量レベルにさらに基づく、請求項1〜4のいずれかに記載の方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項1〜4のいずれかに記載の方法。 - 前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、請求項1〜4のいずれかに記載の方法。 - 請求項1〜9のいずれかに記載の方法を実施するように構成される制御回路を備えるシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/612,516 | 2017-06-02 | ||
US15/612,516 US10564928B2 (en) | 2017-06-02 | 2017-06-02 | Systems and methods for generating a volume- based response for multiple voice-operated user devices |
PCT/US2018/034080 WO2018222456A1 (en) | 2017-06-02 | 2018-05-23 | Systems and methods for generating a volume-based response for multiple voice-operated user devices |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020522019A JP2020522019A (ja) | 2020-07-27 |
JP2020522019A5 true JP2020522019A5 (ja) | 2021-07-26 |
JP7239494B2 JP7239494B2 (ja) | 2023-03-14 |
Family
ID=62599705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566117A Active JP7239494B2 (ja) | 2017-06-02 | 2018-05-23 | 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10564928B2 (ja) |
EP (1) | EP3631796B1 (ja) |
JP (1) | JP7239494B2 (ja) |
KR (1) | KR20200015582A (ja) |
CN (1) | CN110914900B (ja) |
CA (1) | CA3065888A1 (ja) |
WO (1) | WO2018222456A1 (ja) |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9947333B1 (en) * | 2012-02-10 | 2018-04-17 | Amazon Technologies, Inc. | Voice interaction architecture with intelligent background noise cancellation |
US10509626B2 (en) | 2016-02-22 | 2019-12-17 | Sonos, Inc | Handling of loss of pairing between networked devices |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9772817B2 (en) | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CN109686378B (zh) * | 2017-10-13 | 2021-06-08 | 华为技术有限公司 | 语音处理方法和终端 |
US11343614B2 (en) | 2018-01-31 | 2022-05-24 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
JP7106913B2 (ja) * | 2018-03-22 | 2022-07-27 | ヤマハ株式会社 | 音響機器、音響制御システム、音響制御方法、及びプログラム |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US11276396B2 (en) * | 2018-05-01 | 2022-03-15 | Dell Products, L.P. | Handling responses from voice services |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US11373645B1 (en) * | 2018-06-18 | 2022-06-28 | Amazon Technologies, Inc. | Updating personalized data on a speech interface device |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10705789B2 (en) * | 2018-07-25 | 2020-07-07 | Sensory, Incorporated | Dynamic volume adjustment for virtual assistants |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11924511B2 (en) * | 2018-10-04 | 2024-03-05 | Roku, Inc. | Smart remote control for audio responsive media device |
US10514888B1 (en) | 2018-10-05 | 2019-12-24 | Oracle International Corporation | User-adaptive volume selection |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
KR20200084727A (ko) | 2019-01-03 | 2020-07-13 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US10943598B2 (en) * | 2019-03-18 | 2021-03-09 | Rovi Guides, Inc. | Method and apparatus for determining periods of excessive noise for receiving smart speaker voice commands |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
KR20220076503A (ko) * | 2019-10-05 | 2022-06-08 | 이어 피직스, 엘엘씨 | 적응적 청력 정상화 및 자동 튜닝 기능을 갖춘 보정 시스템 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
CN111028835B (zh) * | 2019-11-18 | 2022-08-09 | 北京小米移动软件有限公司 | 资源置换方法、装置、系统、计算机可读存储介质 |
US11233490B2 (en) * | 2019-11-21 | 2022-01-25 | Motorola Mobility Llc | Context based volume adaptation by voice assistant devices |
US12001754B2 (en) | 2019-11-21 | 2024-06-04 | Motorola Mobility Llc | Context based media selection based on preferences setting for active consumer(s) |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11996094B2 (en) | 2020-07-15 | 2024-05-28 | Google Llc | Automated assistant with audio presentation interaction |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11474773B2 (en) * | 2020-09-02 | 2022-10-18 | Google Llc | Automatic adjustment of muted response setting |
US11477523B2 (en) | 2020-10-30 | 2022-10-18 | Dish Network L.L.C. | Systems and methods for facilitating voice interaction with content receivers |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
Family Cites Families (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US5657425A (en) * | 1993-11-15 | 1997-08-12 | International Business Machines Corporation | Location dependent verbal command execution in a computer based control system |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
CA2865444C (en) | 1998-07-17 | 2017-11-28 | United Video Properties, Inc. | Interactive television program guide system having multiple devices within a household |
DE19908137A1 (de) | 1998-10-16 | 2000-06-15 | Volkswagen Ag | Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
US6965863B1 (en) * | 1998-11-12 | 2005-11-15 | Microsoft Corporation | Speech recognition user interface |
JP2000194386A (ja) | 1998-12-24 | 2000-07-14 | Omron Corp | 音声認識応答装置及び方法 |
JP3838029B2 (ja) | 2000-12-18 | 2006-10-25 | セイコーエプソン株式会社 | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム |
KR101548473B1 (ko) | 2001-02-21 | 2015-08-28 | 로비 가이드스, 인크. | 개인용 비디오 녹화 특징을 갖는 대화식 프로그램 가이드를 위한 시스템 및 방법 |
JP2002351653A (ja) | 2001-05-29 | 2002-12-06 | Canon Inc | 音声処理装置、および、音声処理方法 |
US20060085183A1 (en) * | 2004-10-19 | 2006-04-20 | Yogendra Jain | System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech |
JP2007025140A (ja) | 2005-07-14 | 2007-02-01 | Yaskawa Electric Corp | ロボット装置およびロボット装置の情報提示方法 |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
TWI376925B (en) * | 2007-08-28 | 2012-11-11 | Micro Star Int Co Ltd | Adjusting device and method of notification sound according to the environment |
JP5195405B2 (ja) | 2008-12-25 | 2013-05-08 | トヨタ自動車株式会社 | 応答生成装置及びプログラム |
CA3021739C (en) * | 2009-06-30 | 2022-06-21 | Rovi Guides, Inc. | Systems and methods for providing interactive media guidance on a wireless communications device |
US20110044474A1 (en) * | 2009-08-19 | 2011-02-24 | Avaya Inc. | System and Method for Adjusting an Audio Signal Volume Level Based on Whom is Speaking |
WO2012090282A1 (ja) * | 2010-12-27 | 2012-07-05 | 富士通株式会社 | 音声制御装置、音声制御方法、音声制御プログラム及び携帯端末装置 |
US8989406B2 (en) * | 2011-03-11 | 2015-03-24 | Sony Corporation | User profile based audio adjustment techniques |
EP2707872A2 (en) * | 2011-05-12 | 2014-03-19 | Johnson Controls Technology Company | Adaptive voice recognition systems and methods |
EP2786376A1 (en) * | 2012-11-20 | 2014-10-08 | Unify GmbH & Co. KG | Method, device, and system for audio data processing |
US9787273B2 (en) * | 2013-06-13 | 2017-10-10 | Google Technology Holdings LLC | Smart volume control of device audio output based on received audio input |
US9472206B2 (en) * | 2013-06-17 | 2016-10-18 | Google Technology Holdings LLC | Privacy mode for always-on voice-activated information assistant |
US10186262B2 (en) * | 2013-07-31 | 2019-01-22 | Microsoft Technology Licensing, Llc | System with multiple simultaneous speech recognizers |
US9830924B1 (en) * | 2013-12-04 | 2017-11-28 | Amazon Technologies, Inc. | Matching output volume to a command volume |
US9600074B2 (en) | 2014-07-09 | 2017-03-21 | Pearson Education, Inc. | Operational feedback with 3D commands |
US9392324B1 (en) * | 2015-03-30 | 2016-07-12 | Rovi Guides, Inc. | Systems and methods for identifying and storing a portion of a media asset |
WO2016157658A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US9875081B2 (en) * | 2015-09-21 | 2018-01-23 | Amazon Technologies, Inc. | Device selection for providing a response |
US9653075B1 (en) | 2015-11-06 | 2017-05-16 | Google Inc. | Voice commands across devices |
US20170221336A1 (en) * | 2016-01-28 | 2017-08-03 | Flex Ltd. | Human voice feedback system |
US9772817B2 (en) * | 2016-02-22 | 2017-09-26 | Sonos, Inc. | Room-corrected voice detection |
US10095470B2 (en) * | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9807499B2 (en) * | 2016-03-30 | 2017-10-31 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to identify device with which to participate in communication of audio data |
US9749583B1 (en) * | 2016-03-31 | 2017-08-29 | Amazon Technologies, Inc. | Location based device grouping with voice control |
US10235997B2 (en) * | 2016-05-10 | 2019-03-19 | Google Llc | Voice-controlled closed caption display |
US20170330564A1 (en) * | 2016-05-13 | 2017-11-16 | Bose Corporation | Processing Simultaneous Speech from Distributed Microphones |
DK179415B1 (en) * | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN106873937A (zh) * | 2017-02-16 | 2017-06-20 | 北京百度网讯科技有限公司 | 语音输入方法和装置 |
US10621980B2 (en) * | 2017-03-21 | 2020-04-14 | Harman International Industries, Inc. | Execution of voice commands in a multi-device system |
US10147439B1 (en) * | 2017-03-30 | 2018-12-04 | Amazon Technologies, Inc. | Volume adjustment for listening environment |
-
2017
- 2017-06-02 US US15/612,516 patent/US10564928B2/en active Active
-
2018
- 2018-05-23 KR KR1020197038066A patent/KR20200015582A/ko unknown
- 2018-05-23 WO PCT/US2018/034080 patent/WO2018222456A1/en active Application Filing
- 2018-05-23 CA CA3065888A patent/CA3065888A1/en active Pending
- 2018-05-23 CN CN201880046827.2A patent/CN110914900B/zh active Active
- 2018-05-23 EP EP18731264.0A patent/EP3631796B1/en active Active
- 2018-05-23 JP JP2019566117A patent/JP7239494B2/ja active Active
-
2020
- 2020-01-09 US US16/738,815 patent/US11481187B2/en active Active
-
2022
- 2022-09-19 US US17/947,650 patent/US20230013021A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020522019A5 (ja) | ||
JP2017527223A5 (ja) | ||
EP4354790A3 (en) | User id codes for online verification | |
WO2018030422A3 (en) | Diagnosis device, learning device, and diagnosis system | |
EP3163914A3 (en) | Sound level estimation | |
JP2016105617A5 (ja) | ||
WO2020104829A3 (en) | Determining paging occasion resources | |
WO2019221851A3 (en) | Building management hvac control using human sensors | |
EP3148224A3 (en) | Method for determining or verifying spatial relations in a loudspeaker system | |
WO2015195916A8 (en) | Methods and devices for identifying suction events | |
MXPA06004597A (es) | Aparatos, sistemas y metodos para determinar la posicion de receptores acusticos sismicos marinos. | |
EP4282261A3 (en) | Method and system for tracking health in animal populations | |
IL169408A (en) | System for navigation redundancy | |
EP3011902A3 (en) | Automatic sound equalization device | |
RU2018109361A (ru) | Способы и системы для определения местонахождения устройства для очистки полости рта | |
MX2021001101A (es) | Dispositivo de determinacion de anormalidad y metodo de determinacion de anormalidad. | |
JP2016501609A5 (ja) | ||
EP3768020A3 (en) | System and method for performing transmission cancellation indication monitoring | |
MX2019000304A (es) | Metodo y aparato para monitorear personas y hogar. | |
JP2018525911A5 (ja) | ||
CN111930507B (zh) | 限流方法及装置 | |
JP2017526230A5 (ja) | ||
DK2027750T3 (da) | Fremgangsmåde og system til detektion af akustisk chok og anvendelse af denne fremgangsmåde i høreapparater | |
JP2021520725A5 (ja) | ||
EP4103038A4 (en) | SYSTEM, DEVICE AND METHOD FOR DETERMINING AND/OR EVALUATING BRAIN-RELATED PATHOLOGIES BASED ON THE RESPONSE OF THE PUPIL TO LIGHT |