JP2020522019A5 - - Google Patents

Download PDF

Info

Publication number
JP2020522019A5
JP2020522019A5 JP2019566117A JP2019566117A JP2020522019A5 JP 2020522019 A5 JP2020522019 A5 JP 2020522019A5 JP 2019566117 A JP2019566117 A JP 2019566117A JP 2019566117 A JP2019566117 A JP 2019566117A JP 2020522019 A5 JP2020522019 A5 JP 2020522019A5
Authority
JP
Japan
Prior art keywords
user
volume level
time
voice
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019566117A
Other languages
English (en)
Other versions
JP2020522019A (ja
JP7239494B2 (ja
Filing date
Publication date
Priority claimed from US15/612,516 external-priority patent/US10564928B2/en
Application filed filed Critical
Publication of JP2020522019A publication Critical patent/JP2020522019A/ja
Publication of JP2020522019A5 publication Critical patent/JP2020522019A5/ja
Application granted granted Critical
Publication of JP7239494B2 publication Critical patent/JP7239494B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

上記に説明されるシステムおよび/または方法は、本開示に説明される他のシステム、方法、および/または装置に適用される、またはそれに従って使用され得ることに留意されたい。
本発明は、例えば、以下を提供する。
(項目1)
方法であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが、他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目2)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を含む、方法。
(項目3)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することあって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することあって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目4)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目3に記載の方法。
(項目5)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目3に記載の方法。
(項目6)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目3に記載の方法。
(項目7)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目2に記載の方法。
(項目8)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目2に記載の方法。
(項目9)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目2に記載の方法。
(項目10)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目2に記載の方法。
(項目11)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目2に記載の方法。
(項目12)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
制御回路であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較して、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を行うように構成される、制御回路
を備える、システム。
(項目13)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目14)
前記制御回路はさらに、
前記時間周期を決定するように構成され、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目13に記載のシステム。
(項目15)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目16)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
を行うように構成され、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目13に記載のシステム。
(項目17)
前記制御回路はさらに、
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
を行うように構成される、項目12に記載のシステム。
(項目18)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
を行うように構成され、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目12に記載のシステム。
(項目19)
前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、項目12に記載のシステム。
(項目20)
前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
を行うように構成される、項目12に記載のシステム。
(項目21)
前記制御回路は、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
によって、前記第1の音量レベルを決定するように構成される、項目12に記載のシステム。
(項目22)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための手段と、
前記音声コマンドの第1の音量レベルを決定するための手段であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、手段と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための手段と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための手段と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための手段であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、手段と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための手段と
を備える、システム。
(項目23)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目24)
前記時間周期を決定するための手段をさらに備え、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための手段と
を備える、項目23に記載のシステム。
(項目25)
第2の可聴応答を生成するための前記手段は、
第3の音量レベルを決定するための手段であって、前記第3の音量レベルは、前記第2の音量レベルを上回る、手段
を備え、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目23に記載のシステム。
(項目26)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための手段と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための手段と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目23に記載のシステム。
(項目27)
前記ユーザから確認応答を受信するための手段であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、手段と、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための手段と
をさらに備える、項目22に記載のシステム。
(項目28)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための手段と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための手段と
をさらに備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目22に記載のシステム。
(項目29)
前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、項目22に記載のシステム。
(項目30)
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
前記視覚表現を前記ディスプレイデバイスに伝送するための手段と
をさらに備える、項目22に記載のシステム。
(項目31)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための手段と、
背景雑音のレベルを決定するための手段と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための手段と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための手段と
を備える、項目22に記載のシステム。
(項目32)
非一過性の機械可読命令を備える非一過性の機械可読媒体であって、前記命令は、音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するために前記非一過性の機械可読媒体の上にエンコードされており、前記命令は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための命令と、
前記音声コマンドの第1の音量レベルを決定するための命令であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、命令と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための命令と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための命令と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための命令であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、命令と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための命令と
を備える、非一過性の機械可読媒体。
(項目33)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目34)
前記命令はさらに、
前記時間周期を決定するための命令を備え、
前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための命令と
を備える、項目33に記載の非一過性の機械可読媒体。
(項目35)
前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目13に記載のシステム。
(項目36)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための命令と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための命令と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目33に記載の非一過性の機械可読媒体。
(項目37)
前記命令はさらに、
前記ユーザから確認応答を受信するための命令であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、命令と、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目38)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための命令と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための命令と
を備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目32に記載の非一過性の機械可読媒体。
(項目39)
前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目40)
前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
前記視覚表現を前記ディスプレイデバイスに伝送するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目41)
前記命令はさらに、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための命令と、
背景雑音のレベルを決定するための命令と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための命令と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための命令と
を備える、項目32に記載の非一過性の機械可読媒体。
(項目42)
音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。
(項目43)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42に記載の方法。
(項目44)
前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、項目43に記載の方法。
(項目45)
第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、項目43に記載の方法。
(項目46)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、項目42−45のいずれかに記載の方法。
(項目47)
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、項目42−46のいずれかに記載の方法。
(項目48)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、項目42−47のいずれかに記載の方法。
(項目49)
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、項目42−48のいずれかに記載の方法。
(項目50)
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、項目42−49のいずれかに記載の方法。
(項目51)
前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、項目42−50のいずれかに記載の方法。

Claims (10)

  1. 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
    複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
    前記音声コマンドの第1の音量レベルを決定することと、
    前記音声コマンドの前記音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
    前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの前記第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
    を含む、方法。
  2. 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
    第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
    確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
    をさらに含む、請求項に記載の方法。
  3. 前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
    前記ユーザと関連付けられるユーザプロファイルを識別することと、
    前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
    を含む、請求項に記載の方法。
  4. 前記第2の可聴応答を生成することは、
    第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
    を含み、
    前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項に記載の方法。
  5. 前記ユーザと関連付けられるユーザプロファイルを識別することと、
    前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
    前記平均発話音量レベルと前記第2の音声動作型ユーザデバイスと関連付けられる音量レベルとの間の差を決定することと
    をさらに含み、
    第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項1〜4のいずれかに記載の方法。
  6. 前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
    前記ユーザと関連付けられるユーザプロファイルを識別することと、
    前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
    をさらに含む、請求項1〜4のいずれかに記載の方法。
  7. 前記ユーザと関連付けられるユーザプロファイルを識別することと、
    前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
    前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
    をさらに含み、
    前記第2の音量レベルは前記最低ユーザ音量レベルにさらに基づく、請求項1〜4のいずれかに記載の方法。
  8. 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
    第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
    前記ユーザと関連付けられるディスプレイデバイスを識別することと、
    前記可聴応答の視覚表現を表示するために生成することと、
    確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
    をさらに含む、請求項1〜4のいずれかに記載の方法。
  9. 前記第1の音量レベルを決定することは、
    前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
    背景雑音のレベルを決定することと、
    前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
    前記音声コマンドのフィルタ処理された音量レベルを計算することと
    を含む、請求項1〜4のいずれかに記載の方法。
  10. 請求項1〜9のいずれかに記載の方法を実施するように構成される制御回路を備えるシステム。
JP2019566117A 2017-06-02 2018-05-23 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 Active JP7239494B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/612,516 2017-06-02
US15/612,516 US10564928B2 (en) 2017-06-02 2017-06-02 Systems and methods for generating a volume- based response for multiple voice-operated user devices
PCT/US2018/034080 WO2018222456A1 (en) 2017-06-02 2018-05-23 Systems and methods for generating a volume-based response for multiple voice-operated user devices

Publications (3)

Publication Number Publication Date
JP2020522019A JP2020522019A (ja) 2020-07-27
JP2020522019A5 true JP2020522019A5 (ja) 2021-07-26
JP7239494B2 JP7239494B2 (ja) 2023-03-14

Family

ID=62599705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019566117A Active JP7239494B2 (ja) 2017-06-02 2018-05-23 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法

Country Status (7)

Country Link
US (3) US10564928B2 (ja)
EP (1) EP3631796B1 (ja)
JP (1) JP7239494B2 (ja)
KR (1) KR20200015582A (ja)
CN (1) CN110914900B (ja)
CA (1) CA3065888A1 (ja)
WO (1) WO2018222456A1 (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947333B1 (en) * 2012-02-10 2018-04-17 Amazon Technologies, Inc. Voice interaction architecture with intelligent background noise cancellation
US10509626B2 (en) 2016-02-22 2019-12-17 Sonos, Inc Handling of loss of pairing between networked devices
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US9772817B2 (en) 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10531157B1 (en) * 2017-09-21 2020-01-07 Amazon Technologies, Inc. Presentation and management of audio and visual content across devices
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
CN109686378B (zh) * 2017-10-13 2021-06-08 华为技术有限公司 语音处理方法和终端
US11343614B2 (en) 2018-01-31 2022-05-24 Sonos, Inc. Device designation of playback and network microphone device arrangements
JP7106913B2 (ja) * 2018-03-22 2022-07-27 ヤマハ株式会社 音響機器、音響制御システム、音響制御方法、及びプログラム
US10600408B1 (en) * 2018-03-23 2020-03-24 Amazon Technologies, Inc. Content output management based on speech quality
US11276396B2 (en) * 2018-05-01 2022-03-15 Dell Products, L.P. Handling responses from voice services
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US11373645B1 (en) * 2018-06-18 2022-06-28 Amazon Technologies, Inc. Updating personalized data on a speech interface device
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10705789B2 (en) * 2018-07-25 2020-07-07 Sensory, Incorporated Dynamic volume adjustment for virtual assistants
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US11924511B2 (en) * 2018-10-04 2024-03-05 Roku, Inc. Smart remote control for audio responsive media device
US10514888B1 (en) 2018-10-05 2019-12-24 Oracle International Corporation User-adaptive volume selection
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
KR20200084727A (ko) 2019-01-03 2020-07-13 삼성전자주식회사 전자 장치 및 이의 제어 방법
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
EP3709194A1 (en) 2019-03-15 2020-09-16 Spotify AB Ensemble-based data comparison
US10943598B2 (en) * 2019-03-18 2021-03-09 Rovi Guides, Inc. Method and apparatus for determining periods of excessive noise for receiving smart speaker voice commands
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11094319B2 (en) 2019-08-30 2021-08-17 Spotify Ab Systems and methods for generating a cleaned version of ambient sound
KR20220076503A (ko) * 2019-10-05 2022-06-08 이어 피직스, 엘엘씨 적응적 청력 정상화 및 자동 튜닝 기능을 갖춘 보정 시스템
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
CN111028835B (zh) * 2019-11-18 2022-08-09 北京小米移动软件有限公司 资源置换方法、装置、系统、计算机可读存储介质
US11233490B2 (en) * 2019-11-21 2022-01-25 Motorola Mobility Llc Context based volume adaptation by voice assistant devices
US12001754B2 (en) 2019-11-21 2024-06-04 Motorola Mobility Llc Context based media selection based on preferences setting for active consumer(s)
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11328722B2 (en) * 2020-02-11 2022-05-10 Spotify Ab Systems and methods for generating a singular voice audio stream
US11308959B2 (en) 2020-02-11 2022-04-19 Spotify Ab Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices
US11308962B2 (en) * 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11996094B2 (en) 2020-07-15 2024-05-28 Google Llc Automated assistant with audio presentation interaction
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11474773B2 (en) * 2020-09-02 2022-10-18 Google Llc Automatic adjustment of muted response setting
US11477523B2 (en) 2020-10-30 2022-10-18 Dish Network L.L.C. Systems and methods for facilitating voice interaction with content receivers
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6239794B1 (en) 1994-08-31 2001-05-29 E Guide, Inc. Method and system for simultaneously displaying a television program and information about the program
US5657425A (en) * 1993-11-15 1997-08-12 International Business Machines Corporation Location dependent verbal command execution in a computer based control system
US6564378B1 (en) 1997-12-08 2003-05-13 United Video Properties, Inc. Program guide system with browsing display
CN1867068A (zh) 1998-07-14 2006-11-22 联合视频制品公司 交互式电视节目导视系统及其方法
AR020608A1 (es) 1998-07-17 2002-05-22 United Video Properties Inc Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto
CA2865444C (en) 1998-07-17 2017-11-28 United Video Properties, Inc. Interactive television program guide system having multiple devices within a household
DE19908137A1 (de) 1998-10-16 2000-06-15 Volkswagen Ag Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog
US7165098B1 (en) 1998-11-10 2007-01-16 United Video Properties, Inc. On-line schedule system with personalization features
US6965863B1 (en) * 1998-11-12 2005-11-15 Microsoft Corporation Speech recognition user interface
JP2000194386A (ja) 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
JP3838029B2 (ja) 2000-12-18 2006-10-25 セイコーエプソン株式会社 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
KR101548473B1 (ko) 2001-02-21 2015-08-28 로비 가이드스, 인크. 개인용 비디오 녹화 특징을 갖는 대화식 프로그램 가이드를 위한 시스템 및 방법
JP2002351653A (ja) 2001-05-29 2002-12-06 Canon Inc 音声処理装置、および、音声処理方法
US20060085183A1 (en) * 2004-10-19 2006-04-20 Yogendra Jain System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech
JP2007025140A (ja) 2005-07-14 2007-02-01 Yaskawa Electric Corp ロボット装置およびロボット装置の情報提示方法
US20100153885A1 (en) 2005-12-29 2010-06-17 Rovi Technologies Corporation Systems and methods for interacting with advanced displays provided by an interactive media guidance application
TWI376925B (en) * 2007-08-28 2012-11-11 Micro Star Int Co Ltd Adjusting device and method of notification sound according to the environment
JP5195405B2 (ja) 2008-12-25 2013-05-08 トヨタ自動車株式会社 応答生成装置及びプログラム
CA3021739C (en) * 2009-06-30 2022-06-21 Rovi Guides, Inc. Systems and methods for providing interactive media guidance on a wireless communications device
US20110044474A1 (en) * 2009-08-19 2011-02-24 Avaya Inc. System and Method for Adjusting an Audio Signal Volume Level Based on Whom is Speaking
WO2012090282A1 (ja) * 2010-12-27 2012-07-05 富士通株式会社 音声制御装置、音声制御方法、音声制御プログラム及び携帯端末装置
US8989406B2 (en) * 2011-03-11 2015-03-24 Sony Corporation User profile based audio adjustment techniques
EP2707872A2 (en) * 2011-05-12 2014-03-19 Johnson Controls Technology Company Adaptive voice recognition systems and methods
EP2786376A1 (en) * 2012-11-20 2014-10-08 Unify GmbH & Co. KG Method, device, and system for audio data processing
US9787273B2 (en) * 2013-06-13 2017-10-10 Google Technology Holdings LLC Smart volume control of device audio output based on received audio input
US9472206B2 (en) * 2013-06-17 2016-10-18 Google Technology Holdings LLC Privacy mode for always-on voice-activated information assistant
US10186262B2 (en) * 2013-07-31 2019-01-22 Microsoft Technology Licensing, Llc System with multiple simultaneous speech recognizers
US9830924B1 (en) * 2013-12-04 2017-11-28 Amazon Technologies, Inc. Matching output volume to a command volume
US9600074B2 (en) 2014-07-09 2017-03-21 Pearson Education, Inc. Operational feedback with 3D commands
US9392324B1 (en) * 2015-03-30 2016-07-12 Rovi Guides, Inc. Systems and methods for identifying and storing a portion of a media asset
WO2016157658A1 (ja) * 2015-03-31 2016-10-06 ソニー株式会社 情報処理装置、制御方法、およびプログラム
US9875081B2 (en) * 2015-09-21 2018-01-23 Amazon Technologies, Inc. Device selection for providing a response
US9653075B1 (en) 2015-11-06 2017-05-16 Google Inc. Voice commands across devices
US20170221336A1 (en) * 2016-01-28 2017-08-03 Flex Ltd. Human voice feedback system
US9772817B2 (en) * 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US10095470B2 (en) * 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US9807499B2 (en) * 2016-03-30 2017-10-31 Lenovo (Singapore) Pte. Ltd. Systems and methods to identify device with which to participate in communication of audio data
US9749583B1 (en) * 2016-03-31 2017-08-29 Amazon Technologies, Inc. Location based device grouping with voice control
US10235997B2 (en) * 2016-05-10 2019-03-19 Google Llc Voice-controlled closed caption display
US20170330564A1 (en) * 2016-05-13 2017-11-16 Bose Corporation Processing Simultaneous Speech from Distributed Microphones
DK179415B1 (en) * 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
CN106873937A (zh) * 2017-02-16 2017-06-20 北京百度网讯科技有限公司 语音输入方法和装置
US10621980B2 (en) * 2017-03-21 2020-04-14 Harman International Industries, Inc. Execution of voice commands in a multi-device system
US10147439B1 (en) * 2017-03-30 2018-12-04 Amazon Technologies, Inc. Volume adjustment for listening environment

Similar Documents

Publication Publication Date Title
JP2020522019A5 (ja)
JP2017527223A5 (ja)
EP4354790A3 (en) User id codes for online verification
WO2018030422A3 (en) Diagnosis device, learning device, and diagnosis system
EP3163914A3 (en) Sound level estimation
JP2016105617A5 (ja)
WO2020104829A3 (en) Determining paging occasion resources
WO2019221851A3 (en) Building management hvac control using human sensors
EP3148224A3 (en) Method for determining or verifying spatial relations in a loudspeaker system
WO2015195916A8 (en) Methods and devices for identifying suction events
MXPA06004597A (es) Aparatos, sistemas y metodos para determinar la posicion de receptores acusticos sismicos marinos.
EP4282261A3 (en) Method and system for tracking health in animal populations
IL169408A (en) System for navigation redundancy
EP3011902A3 (en) Automatic sound equalization device
RU2018109361A (ru) Способы и системы для определения местонахождения устройства для очистки полости рта
MX2021001101A (es) Dispositivo de determinacion de anormalidad y metodo de determinacion de anormalidad.
JP2016501609A5 (ja)
EP3768020A3 (en) System and method for performing transmission cancellation indication monitoring
MX2019000304A (es) Metodo y aparato para monitorear personas y hogar.
JP2018525911A5 (ja)
CN111930507B (zh) 限流方法及装置
JP2017526230A5 (ja)
DK2027750T3 (da) Fremgangsmåde og system til detektion af akustisk chok og anvendelse af denne fremgangsmåde i høreapparater
JP2021520725A5 (ja)
EP4103038A4 (en) SYSTEM, DEVICE AND METHOD FOR DETERMINING AND/OR EVALUATING BRAIN-RELATED PATHOLOGIES BASED ON THE RESPONSE OF THE PUPIL TO LIGHT