JP2020522019A - 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 - Google Patents
複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP2020522019A JP2020522019A JP2019566117A JP2019566117A JP2020522019A JP 2020522019 A JP2020522019 A JP 2020522019A JP 2019566117 A JP2019566117 A JP 2019566117A JP 2019566117 A JP2019566117 A JP 2019566117A JP 2020522019 A JP2020522019 A JP 2020522019A
- Authority
- JP
- Japan
- Prior art keywords
- user
- volume level
- voice
- time
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 275
- 238000000034 method Methods 0.000 title claims abstract description 76
- 230000000007 visual effect Effects 0.000 claims description 42
- 238000001914 filtration Methods 0.000 claims description 7
- 208000016354 hearing loss disease Diseases 0.000 claims description 7
- 238000012790 confirmation Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 55
- 230000008569 process Effects 0.000 description 43
- 238000012545 processing Methods 0.000 description 14
- 238000013459 approach Methods 0.000 description 12
- 230000009471 action Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 230000002452 interceptive effect Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000006855 networking Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 244000187656 Eucalyptus cornuta Species 0.000 description 1
- 229910021417 amorphous silicon Inorganic materials 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 239000002041 carbon nanotube Substances 0.000 description 1
- 229910021393 carbon nanotube Inorganic materials 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 229910021420 polycrystalline silicon Inorganic materials 0.000 description 1
- 229920005591 polysilicon Polymers 0.000 description 1
- 230000036593 pulmonary vascular resistance Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0316—Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
- G10L21/0324—Details of processing therefor
- G10L21/034—Automatic adjustment
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/06—Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids
- G10L21/10—Transforming into visible information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/3005—Automatic control in amplifiers having semiconductor devices in amplifiers suitable for low-frequencies, e.g. audio amplifiers
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03G—CONTROL OF AMPLIFICATION
- H03G3/00—Gain control in amplifiers or frequency changers
- H03G3/20—Automatic control
- H03G3/30—Automatic control in amplifiers having semiconductor devices
- H03G3/32—Automatic control in amplifiers having semiconductor devices the control being dependent upon ambient noise level or sound level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L12/2816—Controlling appliance services of a home automation network by calling their functionalities
- H04L12/282—Controlling appliance services of a home automation network by calling their functionalities based on user interaction within the home
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/2803—Home automation networks
- H04L2012/2847—Home automation networks characterised by the type of home appliance used
- H04L2012/2849—Audio/video appliances
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Theoretical Computer Science (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Quality & Reliability (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Circuit For Audible Band Transducer (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
Claims (51)
- 方法であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが、他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。 - 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を含む、方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することあって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することあって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項2に記載の方法。 - 前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、請求項3に記載の方法。 - 第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項3に記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項3に記載の方法。 - 前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、請求項2に記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、請求項2に記載の方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項2に記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、請求項2に記載の方法。 - 前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、請求項2に記載の方法。 - 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
制御回路であって、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することであって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、ことと、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信することと、
前記第1の音量レベルを前記複数の音量レベルと比較することと、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定することと、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較して、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定することと、
コマンドを前記第2の音声動作型ユーザデバイスに伝送することであって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、ことと、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成することと
を行うように構成される、制御回路
を備える、システム。 - 前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、請求項12に記載のシステム。 - 前記制御回路はさらに、
前記時間周期を決定するように構成され、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、請求項13に記載のシステム。 - 前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項13に記載のシステム。 - 前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
を行うように構成され、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項13に記載のシステム。 - 前記制御回路はさらに、
前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
を行うように構成される、請求項12に記載のシステム。 - 前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
を行うように構成され、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、請求項12に記載のシステム。 - 前記制御回路はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
を行うように構成される、請求項12に記載のシステム。 - 前記制御回路はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
を行うように構成される、請求項12に記載のシステム。 - 前記制御回路は、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
によって、前記第1の音量レベルを決定するように構成される、請求項12に記載のシステム。 - 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するためのシステムであって、前記システムは、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための手段と、
前記音声コマンドの第1の音量レベルを決定するための手段であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、手段と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較するための手段と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための手段と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための手段と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための手段であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、手段と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための手段と
を備える、システム。 - 前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、請求項22に記載のシステム。 - 前記時間周期を決定するための手段をさらに備え、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための手段と
を備える、請求項23に記載のシステム。 - 第2の可聴応答を生成するための前記手段は、
第3の音量レベルを決定するための手段であって、前記第3の音量レベルは、前記第2の音量レベルを上回る、手段
を備え、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項23に記載のシステム。 - 前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための手段と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための手段と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項23に記載のシステム。 - 前記ユーザから確認応答を受信するための手段であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、手段と、
前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための手段と
をさらに備える、請求項22に記載のシステム。 - 前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための手段と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための手段と
をさらに備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、請求項22に記載のシステム。 - 前記可聴応答が生成されたときに対応する第1の時間を決定するための手段と、
第2の時間を計算するための手段であって、前記第2の時間は、時間周期に加算される前記第1の時間である、手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための手段であって、前記第3の時間は、前記第2の時間の前である、手段と
をさらに備える、請求項22に記載のシステム。 - 前記ユーザと関連付けられるユーザプロファイルを識別するための手段と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための手段と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための手段と、
前記可聴応答の視覚表現を表示するために生成するための手段と、
前記視覚表現を前記ディスプレイデバイスに伝送するための手段と
をさらに備える、請求項22に記載のシステム。 - 前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための手段と、
背景雑音のレベルを決定するための手段と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための手段と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための手段と
を備える、請求項22に記載のシステム。 - 非一過性の機械可読命令を備える非一過性の機械可読媒体であって、前記命令は、音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するために前記非一過性の機械可読媒体の上にエンコードされており、前記命令は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出するための命令と、
前記音声コマンドの第1の音量レベルを決定するための命令であって、前記音声コマンドは、前記第1の音声動作型ユーザデバイスによって受信される、命令と、
複数の音量レベルのうちの各音量レベルを複数の音声動作型ユーザデバイスのうちの個別の音声動作型ユーザデバイスと関連付ける少なくとも1つのデータ構造を受信するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較するための命令と、
前記第1の音量レベルを前記複数の音量レベルと比較することに基づいて、前記複数の音量レベルのうちの最大音量レベルを決定するための命令と、
前記最大音量レベルを前記少なくとも1つのデータ構造と比較し、前記最大音量レベルと関連付けられる第2の音声動作型ユーザデバイスを決定するための命令と、
コマンドを前記第2の音声動作型ユーザデバイスに伝送するための命令であって、前記コマンドは、応答音量レベルを第2の音量レベルに更新するように前記第2の音声動作型ユーザデバイスに命令し、前記第2の音量レベルは、前記最大音量レベルに基づく、命令と、
前記第2の音声動作型ユーザデバイスを通して、前記第2の音量レベルにおいて可聴応答を生成するための命令と
を備える、非一過性の機械可読媒体。 - 前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、請求項32に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記時間周期を決定するための命令を備え、
前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、応答のための平均時間を決定するための命令と
を備える、請求項33に記載の非一過性の機械可読媒体。 - 前記制御回路は、
第3の音量レベルを決定することによって、前記第2の可聴応答を生成するように構成され、前記第3の音量レベルは、前記第2の音量レベルを上回り、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項13に記載のシステム。 - 前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別するための命令と、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定するための命令と
をさらに備え、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項33に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記ユーザから確認応答を受信するための命令であって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、命令と、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶するための命令と
を備える、請求項32に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別するための命令と、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定するための命令と
を備え、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、請求項32に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記可聴応答が生成されたときに対応する第1の時間を決定するための命令と、
第2の時間を計算するための命令であって、前記第2の時間は、時間周期に加算される前記第1の時間である、命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送するための命令であって、前記第3の時間は、前記第2の時間の前である、命令と
を備える、請求項32に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記ユーザと関連付けられるユーザプロファイルを識別するための命令と、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定するための命令と、
前記ユーザと関連付けられるディスプレイデバイスを識別するための命令と、
前記可聴応答の視覚表現を表示するために生成するための命令と、
前記視覚表現を前記ディスプレイデバイスに伝送するための命令と
を備える、請求項32に記載の非一過性の機械可読媒体。 - 前記命令はさらに、
前記音声コマンドのフィルタ処理されていない音量レベルを測定するための命令と、
背景雑音のレベルを決定するための命令と、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去するための命令と、
前記音声コマンドのフィルタ処理された音量レベルを計算するための命令と
を備える、請求項32に記載の非一過性の機械可読媒体。 - 音声コマンドの音量レベルに基づく音量レベルにおいて前記音声コマンドに応答するための方法であって、前記方法は、
複数の音声動作型ユーザデバイスのうちの第1の音声動作型ユーザデバイスを通して、ユーザによって話される音声コマンドを検出することと、
前記音声コマンドの第1の音量レベルを決定することと、
前記音声コマンドの音量レベルに基づいて、前記複数の音声動作型ユーザデバイスのうちの第2の音声動作型ユーザデバイスが他の音声動作型ユーザデバイスのうちのいずれよりも前記ユーザに近いことを決定することと、
前記第2の音声動作型ユーザデバイスを通して、前記音声コマンドの第1の音量レベルに基づいて設定される第2の音量レベルにおいて、可聴応答を生成することと
を含む、方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記第2の音声動作型ユーザデバイスを通して、第2の可聴応答を生成することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項42に記載の方法。 - 前記時間周期を決定することをさらに含み、前記時間周期を決定することは、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、応答のための平均時間を決定することと
を含む、請求項43に記載の方法。 - 第2の可聴応答を生成することは、
第3の音量レベルを決定することであって、前記第3の音量レベルは、前記第2の音量レベルを上回る、こと
を含み、
前記第2の可聴応答は、前記第3の音量レベルにおいて生成される、請求項43に記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる平均発話音量レベルを識別することと、
前記平均発話音量レベルと前記最大音量レベルとの間の差を決定することと
をさらに含み、
第3の音量レベルを決定することは、前記第2の音量レベルに加算される前記差に基づく、請求項42−45のいずれかに記載の方法。 - 前記ユーザから確認応答を受信することであって、前記確認応答は、前記可聴応答が前記ユーザによって聞かれたことを示す、ことと、
前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記確認応答を受信することに応答して、前記ユーザプロファイルの中に前記第2の音量レベルを記憶することと
をさらに含む、請求項42−46のいずれかに記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザと関連付けられる複数のユーザ音量レベルを識別することと、
前記複数のユーザ音量レベルのうちの最低ユーザ音量レベルを決定することと
をさらに含み、
前記第2の音量レベルはさらに、前記最低ユーザ音量レベルに基づく、請求項42−47のいずれかに記載の方法。 - 前記可聴応答が生成されたときに対応する第1の時間を決定することと、
第2の時間を計算することであって、前記第2の時間は、時間周期に加算される前記第1の時間である、ことと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
確認応答が第3の時間に受信されたかどうかに基づいて、前記視覚表現を前記ディスプレイデバイスに伝送することであって、前記第3の時間は、前記第2の時間の前である、ことと
をさらに含む、請求項42−48のいずれかに記載の方法。 - 前記ユーザと関連付けられるユーザプロファイルを識別することと、
前記ユーザプロファイルを使用して、前記ユーザに聴力障害があることを決定することと、
前記ユーザと関連付けられるディスプレイデバイスを識別することと、
前記可聴応答の視覚表現を表示するために生成することと、
前記視覚表現を前記ディスプレイデバイスに伝送することと
をさらに含む、請求項42−49のいずれかに記載の方法。 - 前記第1の音量レベルを決定することは、
前記音声コマンドのフィルタ処理されていない音量レベルを測定することと、
背景雑音のレベルを決定することと、
前記音声コマンドをフィルタ処理し、前記背景雑音のレベルを除去することと、
前記音声コマンドのフィルタ処理された音量レベルを計算することと
を含む、請求項42−50のいずれかに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/612,516 | 2017-06-02 | ||
US15/612,516 US10564928B2 (en) | 2017-06-02 | 2017-06-02 | Systems and methods for generating a volume- based response for multiple voice-operated user devices |
PCT/US2018/034080 WO2018222456A1 (en) | 2017-06-02 | 2018-05-23 | Systems and methods for generating a volume-based response for multiple voice-operated user devices |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020522019A true JP2020522019A (ja) | 2020-07-27 |
JP2020522019A5 JP2020522019A5 (ja) | 2021-07-26 |
JP7239494B2 JP7239494B2 (ja) | 2023-03-14 |
Family
ID=62599705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019566117A Active JP7239494B2 (ja) | 2017-06-02 | 2018-05-23 | 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10564928B2 (ja) |
EP (1) | EP3631796B1 (ja) |
JP (1) | JP7239494B2 (ja) |
KR (1) | KR20200015582A (ja) |
CN (1) | CN110914900B (ja) |
CA (1) | CA3065888A1 (ja) |
WO (1) | WO2018222456A1 (ja) |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9947333B1 (en) * | 2012-02-10 | 2018-04-17 | Amazon Technologies, Inc. | Voice interaction architecture with intelligent background noise cancellation |
US10264030B2 (en) | 2016-02-22 | 2019-04-16 | Sonos, Inc. | Networked microphone device control |
US9947316B2 (en) | 2016-02-22 | 2018-04-17 | Sonos, Inc. | Voice control of a media playback system |
US9820039B2 (en) | 2016-02-22 | 2017-11-14 | Sonos, Inc. | Default playback devices |
US9811314B2 (en) | 2016-02-22 | 2017-11-07 | Sonos, Inc. | Metadata exchange involving a networked playback system and a networked microphone system |
US10095470B2 (en) | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9965247B2 (en) | 2016-02-22 | 2018-05-08 | Sonos, Inc. | Voice controlled media playback system based on user profile |
US9978390B2 (en) | 2016-06-09 | 2018-05-22 | Sonos, Inc. | Dynamic player selection for audio signal processing |
US10134399B2 (en) | 2016-07-15 | 2018-11-20 | Sonos, Inc. | Contextualization of voice inputs |
US10115400B2 (en) | 2016-08-05 | 2018-10-30 | Sonos, Inc. | Multiple voice services |
US9942678B1 (en) | 2016-09-27 | 2018-04-10 | Sonos, Inc. | Audio playback settings for voice interaction |
US10181323B2 (en) | 2016-10-19 | 2019-01-15 | Sonos, Inc. | Arbitration-based voice recognition |
US10475449B2 (en) | 2017-08-07 | 2019-11-12 | Sonos, Inc. | Wake-word detection suppression |
US10048930B1 (en) | 2017-09-08 | 2018-08-14 | Sonos, Inc. | Dynamic computation of system response volume |
US10531157B1 (en) * | 2017-09-21 | 2020-01-07 | Amazon Technologies, Inc. | Presentation and management of audio and visual content across devices |
US10446165B2 (en) | 2017-09-27 | 2019-10-15 | Sonos, Inc. | Robust short-time fourier transform acoustic echo cancellation during audio playback |
US10621981B2 (en) | 2017-09-28 | 2020-04-14 | Sonos, Inc. | Tone interference cancellation |
US10482868B2 (en) | 2017-09-28 | 2019-11-19 | Sonos, Inc. | Multi-channel acoustic echo cancellation |
US10466962B2 (en) | 2017-09-29 | 2019-11-05 | Sonos, Inc. | Media playback system with voice assistance |
CN109686378B (zh) * | 2017-10-13 | 2021-06-08 | 华为技术有限公司 | 语音处理方法和终端 |
WO2019152722A1 (en) | 2018-01-31 | 2019-08-08 | Sonos, Inc. | Device designation of playback and network microphone device arrangements |
JP7106913B2 (ja) * | 2018-03-22 | 2022-07-27 | ヤマハ株式会社 | 音響機器、音響制御システム、音響制御方法、及びプログラム |
US10600408B1 (en) * | 2018-03-23 | 2020-03-24 | Amazon Technologies, Inc. | Content output management based on speech quality |
US11276396B2 (en) * | 2018-05-01 | 2022-03-15 | Dell Products, L.P. | Handling responses from voice services |
US11175880B2 (en) | 2018-05-10 | 2021-11-16 | Sonos, Inc. | Systems and methods for voice-assisted media content selection |
US10959029B2 (en) | 2018-05-25 | 2021-03-23 | Sonos, Inc. | Determining and adapting to changes in microphone performance of playback devices |
US11373645B1 (en) * | 2018-06-18 | 2022-06-28 | Amazon Technologies, Inc. | Updating personalized data on a speech interface device |
US10681460B2 (en) | 2018-06-28 | 2020-06-09 | Sonos, Inc. | Systems and methods for associating playback devices with voice assistant services |
US10705789B2 (en) * | 2018-07-25 | 2020-07-07 | Sensory, Incorporated | Dynamic volume adjustment for virtual assistants |
US10461710B1 (en) | 2018-08-28 | 2019-10-29 | Sonos, Inc. | Media playback system with maximum volume setting |
US11076035B2 (en) | 2018-08-28 | 2021-07-27 | Sonos, Inc. | Do not disturb feature for audio notifications |
US10587430B1 (en) | 2018-09-14 | 2020-03-10 | Sonos, Inc. | Networked devices, systems, and methods for associating playback devices based on sound codes |
US11024331B2 (en) | 2018-09-21 | 2021-06-01 | Sonos, Inc. | Voice detection optimization using sound metadata |
US11100923B2 (en) | 2018-09-28 | 2021-08-24 | Sonos, Inc. | Systems and methods for selective wake word detection using neural network models |
US11924511B2 (en) * | 2018-10-04 | 2024-03-05 | Roku, Inc. | Smart remote control for audio responsive media device |
US10514888B1 (en) * | 2018-10-05 | 2019-12-24 | Oracle International Corporation | User-adaptive volume selection |
US11899519B2 (en) | 2018-10-23 | 2024-02-13 | Sonos, Inc. | Multiple stage network microphone device with reduced power consumption and processing load |
EP3654249A1 (en) | 2018-11-15 | 2020-05-20 | Snips | Dilated convolutions and gating for efficient keyword spotting |
US11183183B2 (en) | 2018-12-07 | 2021-11-23 | Sonos, Inc. | Systems and methods of operating media playback systems having multiple voice assistant services |
US11132989B2 (en) | 2018-12-13 | 2021-09-28 | Sonos, Inc. | Networked microphone devices, systems, and methods of localized arbitration |
US10602268B1 (en) | 2018-12-20 | 2020-03-24 | Sonos, Inc. | Optimization of network microphone devices using noise classification |
KR20200084727A (ko) * | 2019-01-03 | 2020-07-13 | 삼성전자주식회사 | 전자 장치 및 이의 제어 방법 |
US11315556B2 (en) | 2019-02-08 | 2022-04-26 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification |
US10867604B2 (en) | 2019-02-08 | 2020-12-15 | Sonos, Inc. | Devices, systems, and methods for distributed voice processing |
EP3709194A1 (en) | 2019-03-15 | 2020-09-16 | Spotify AB | Ensemble-based data comparison |
US10943598B2 (en) * | 2019-03-18 | 2021-03-09 | Rovi Guides, Inc. | Method and apparatus for determining periods of excessive noise for receiving smart speaker voice commands |
US11120794B2 (en) | 2019-05-03 | 2021-09-14 | Sonos, Inc. | Voice assistant persistence across multiple network microphone devices |
US11361756B2 (en) | 2019-06-12 | 2022-06-14 | Sonos, Inc. | Conditional wake word eventing based on environment |
US11200894B2 (en) | 2019-06-12 | 2021-12-14 | Sonos, Inc. | Network microphone device with command keyword eventing |
US10586540B1 (en) | 2019-06-12 | 2020-03-10 | Sonos, Inc. | Network microphone device with command keyword conditioning |
US11138969B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US11138975B2 (en) | 2019-07-31 | 2021-10-05 | Sonos, Inc. | Locally distributed keyword detection |
US10871943B1 (en) | 2019-07-31 | 2020-12-22 | Sonos, Inc. | Noise classification for event detection |
US11094319B2 (en) | 2019-08-30 | 2021-08-17 | Spotify Ab | Systems and methods for generating a cleaned version of ambient sound |
KR20220076503A (ko) * | 2019-10-05 | 2022-06-08 | 이어 피직스, 엘엘씨 | 적응적 청력 정상화 및 자동 튜닝 기능을 갖춘 보정 시스템 |
US11189286B2 (en) | 2019-10-22 | 2021-11-30 | Sonos, Inc. | VAS toggle based on device orientation |
CN111028835B (zh) * | 2019-11-18 | 2022-08-09 | 北京小米移动软件有限公司 | 资源置换方法、装置、系统、计算机可读存储介质 |
US11233490B2 (en) * | 2019-11-21 | 2022-01-25 | Motorola Mobility Llc | Context based volume adaptation by voice assistant devices |
US11200900B2 (en) | 2019-12-20 | 2021-12-14 | Sonos, Inc. | Offline voice control |
US11562740B2 (en) | 2020-01-07 | 2023-01-24 | Sonos, Inc. | Voice verification for media playback |
US11308958B2 (en) | 2020-02-07 | 2022-04-19 | Sonos, Inc. | Localized wakeword verification |
US11328722B2 (en) * | 2020-02-11 | 2022-05-10 | Spotify Ab | Systems and methods for generating a singular voice audio stream |
US11308959B2 (en) | 2020-02-11 | 2022-04-19 | Spotify Ab | Dynamic adjustment of wake word acceptance tolerance thresholds in voice-controlled devices |
US11308962B2 (en) * | 2020-05-20 | 2022-04-19 | Sonos, Inc. | Input detection windowing |
US11482224B2 (en) | 2020-05-20 | 2022-10-25 | Sonos, Inc. | Command keywords with input detection windowing |
US11727919B2 (en) | 2020-05-20 | 2023-08-15 | Sonos, Inc. | Memory allocation for keyword spotting engines |
US11996094B2 (en) | 2020-07-15 | 2024-05-28 | Google Llc | Automated assistant with audio presentation interaction |
US11698771B2 (en) | 2020-08-25 | 2023-07-11 | Sonos, Inc. | Vocal guidance engines for playback devices |
US11474773B2 (en) * | 2020-09-02 | 2022-10-18 | Google Llc | Automatic adjustment of muted response setting |
US11477523B2 (en) | 2020-10-30 | 2022-10-18 | Dish Network L.L.C. | Systems and methods for facilitating voice interaction with content receivers |
US11984123B2 (en) | 2020-11-12 | 2024-05-14 | Sonos, Inc. | Network device interaction by range |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194386A (ja) * | 1998-12-24 | 2000-07-14 | Omron Corp | 音声認識応答装置及び方法 |
JP2002182688A (ja) * | 2000-12-18 | 2002-06-26 | Seiko Epson Corp | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム |
JP2002351653A (ja) * | 2001-05-29 | 2002-12-06 | Canon Inc | 音声処理装置、および、音声処理方法 |
JP2007025140A (ja) * | 2005-07-14 | 2007-02-01 | Yaskawa Electric Corp | ロボット装置およびロボット装置の情報提示方法 |
JP2010152119A (ja) * | 2008-12-25 | 2010-07-08 | Toyota Central R&D Labs Inc | 応答生成装置及びプログラム |
US20140372109A1 (en) * | 2013-06-13 | 2014-12-18 | Motorola Mobility Llc | Smart volume control of device audio output based on received audio input |
WO2017053311A1 (en) * | 2015-09-21 | 2017-03-30 | Amazon Technologies, Inc. | Device selection for providing a response |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6239794B1 (en) | 1994-08-31 | 2001-05-29 | E Guide, Inc. | Method and system for simultaneously displaying a television program and information about the program |
US5657425A (en) * | 1993-11-15 | 1997-08-12 | International Business Machines Corporation | Location dependent verbal command execution in a computer based control system |
US6564378B1 (en) | 1997-12-08 | 2003-05-13 | United Video Properties, Inc. | Program guide system with browsing display |
CN1867068A (zh) | 1998-07-14 | 2006-11-22 | 联合视频制品公司 | 交互式电视节目导视系统及其方法 |
ATE225998T1 (de) | 1998-07-17 | 2002-10-15 | United Video Properties Inc | Interaktive fernsehprogrammführung mit mehreren geräten an einem ort |
AR020608A1 (es) | 1998-07-17 | 2002-05-22 | United Video Properties Inc | Un metodo y una disposicion para suministrar a un usuario acceso remoto a una guia de programacion interactiva por un enlace de acceso remoto |
DE19908137A1 (de) | 1998-10-16 | 2000-06-15 | Volkswagen Ag | Verfahren und Vorrichtung zur automatischen Steuerung mindestens eines Gerätes per Sprachdialog |
US7165098B1 (en) | 1998-11-10 | 2007-01-16 | United Video Properties, Inc. | On-line schedule system with personalization features |
US6965863B1 (en) * | 1998-11-12 | 2005-11-15 | Microsoft Corporation | Speech recognition user interface |
EP2469850A3 (en) | 2001-02-21 | 2013-07-10 | United Video Properties, Inc. | Systems and methods for interactive program guides with personal video recording features |
US20060085183A1 (en) * | 2004-10-19 | 2006-04-20 | Yogendra Jain | System and method for increasing recognition accuracy and modifying the behavior of a device in response to the detection of different levels of speech |
US20100153885A1 (en) | 2005-12-29 | 2010-06-17 | Rovi Technologies Corporation | Systems and methods for interacting with advanced displays provided by an interactive media guidance application |
TWI376925B (en) * | 2007-08-28 | 2012-11-11 | Micro Star Int Co Ltd | Adjusting device and method of notification sound according to the environment |
CN105338383B (zh) * | 2009-06-30 | 2019-06-07 | 乐威指南公司 | 用于在无线通信装置上提供交互式媒体指南的系统和方法 |
US20110044474A1 (en) * | 2009-08-19 | 2011-02-24 | Avaya Inc. | System and Method for Adjusting an Audio Signal Volume Level Based on Whom is Speaking |
CN103270740B (zh) * | 2010-12-27 | 2016-09-14 | 富士通株式会社 | 声音控制装置、声音控制方法以及移动终端装置 |
US8989406B2 (en) * | 2011-03-11 | 2015-03-24 | Sony Corporation | User profile based audio adjustment techniques |
US9418661B2 (en) * | 2011-05-12 | 2016-08-16 | Johnson Controls Technology Company | Vehicle voice recognition systems and methods |
EP2786376A1 (en) * | 2012-11-20 | 2014-10-08 | Unify GmbH & Co. KG | Method, device, and system for audio data processing |
US9472206B2 (en) * | 2013-06-17 | 2016-10-18 | Google Technology Holdings LLC | Privacy mode for always-on voice-activated information assistant |
US10186262B2 (en) * | 2013-07-31 | 2019-01-22 | Microsoft Technology Licensing, Llc | System with multiple simultaneous speech recognizers |
US9830924B1 (en) * | 2013-12-04 | 2017-11-28 | Amazon Technologies, Inc. | Matching output volume to a command volume |
US9600074B2 (en) | 2014-07-09 | 2017-03-21 | Pearson Education, Inc. | Operational feedback with 3D commands |
US9392324B1 (en) * | 2015-03-30 | 2016-07-12 | Rovi Guides, Inc. | Systems and methods for identifying and storing a portion of a media asset |
WO2016157658A1 (ja) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | 情報処理装置、制御方法、およびプログラム |
US9653075B1 (en) | 2015-11-06 | 2017-05-16 | Google Inc. | Voice commands across devices |
EP3200187A1 (en) * | 2016-01-28 | 2017-08-02 | Flex Ltd. | Human voice feedback system |
US9820039B2 (en) * | 2016-02-22 | 2017-11-14 | Sonos, Inc. | Default playback devices |
US10095470B2 (en) * | 2016-02-22 | 2018-10-09 | Sonos, Inc. | Audio response playback |
US9807499B2 (en) * | 2016-03-30 | 2017-10-31 | Lenovo (Singapore) Pte. Ltd. | Systems and methods to identify device with which to participate in communication of audio data |
US9749583B1 (en) * | 2016-03-31 | 2017-08-29 | Amazon Technologies, Inc. | Location based device grouping with voice control |
KR102307976B1 (ko) * | 2016-05-10 | 2021-09-30 | 구글 엘엘씨 | 디바이스들 상의 보이스 어시스턴트에 대한 구현들 |
US20170330565A1 (en) * | 2016-05-13 | 2017-11-16 | Bose Corporation | Handling Responses to Speech Processing |
DK179415B1 (en) * | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
CN106873937A (zh) * | 2017-02-16 | 2017-06-20 | 北京百度网讯科技有限公司 | 语音输入方法和装置 |
US10621980B2 (en) * | 2017-03-21 | 2020-04-14 | Harman International Industries, Inc. | Execution of voice commands in a multi-device system |
US10147439B1 (en) * | 2017-03-30 | 2018-12-04 | Amazon Technologies, Inc. | Volume adjustment for listening environment |
-
2017
- 2017-06-02 US US15/612,516 patent/US10564928B2/en active Active
-
2018
- 2018-05-23 JP JP2019566117A patent/JP7239494B2/ja active Active
- 2018-05-23 KR KR1020197038066A patent/KR20200015582A/ko unknown
- 2018-05-23 EP EP18731264.0A patent/EP3631796B1/en active Active
- 2018-05-23 WO PCT/US2018/034080 patent/WO2018222456A1/en active Application Filing
- 2018-05-23 CA CA3065888A patent/CA3065888A1/en active Pending
- 2018-05-23 CN CN201880046827.2A patent/CN110914900B/zh active Active
-
2020
- 2020-01-09 US US16/738,815 patent/US11481187B2/en active Active
-
2022
- 2022-09-19 US US17/947,650 patent/US20230013021A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000194386A (ja) * | 1998-12-24 | 2000-07-14 | Omron Corp | 音声認識応答装置及び方法 |
JP2002182688A (ja) * | 2000-12-18 | 2002-06-26 | Seiko Epson Corp | 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム |
JP2002351653A (ja) * | 2001-05-29 | 2002-12-06 | Canon Inc | 音声処理装置、および、音声処理方法 |
JP2007025140A (ja) * | 2005-07-14 | 2007-02-01 | Yaskawa Electric Corp | ロボット装置およびロボット装置の情報提示方法 |
JP2010152119A (ja) * | 2008-12-25 | 2010-07-08 | Toyota Central R&D Labs Inc | 応答生成装置及びプログラム |
US20140372109A1 (en) * | 2013-06-13 | 2014-12-18 | Motorola Mobility Llc | Smart volume control of device audio output based on received audio input |
WO2017053311A1 (en) * | 2015-09-21 | 2017-03-30 | Amazon Technologies, Inc. | Device selection for providing a response |
Also Published As
Publication number | Publication date |
---|---|
EP3631796A1 (en) | 2020-04-08 |
JP7239494B2 (ja) | 2023-03-14 |
US11481187B2 (en) | 2022-10-25 |
US10564928B2 (en) | 2020-02-18 |
CN110914900B (zh) | 2024-04-02 |
WO2018222456A1 (en) | 2018-12-06 |
KR20200015582A (ko) | 2020-02-12 |
US20180349093A1 (en) | 2018-12-06 |
US20230013021A1 (en) | 2023-01-19 |
US20200225909A1 (en) | 2020-07-16 |
EP3631796B1 (en) | 2024-03-27 |
CA3065888A1 (en) | 2018-12-06 |
CN110914900A (zh) | 2020-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7239494B2 (ja) | 複数の音声動作型ユーザデバイスのための音量ベースの応答を生成するためのシステムおよび方法 | |
US20230328124A1 (en) | Systems and methods for establishing a voice link between users accessing media | |
US11798565B2 (en) | Systems and methods for identifying users based on voice data and media consumption data | |
US11853338B2 (en) | Systems and methods for correcting a voice query based on a subsequent voice query with a lower pronunciation rate | |
US10616649B2 (en) | Providing recommendations based on passive microphone detections | |
US11960516B2 (en) | Methods and systems for playing back indexed conversations based on the presence of other people | |
US10405062B2 (en) | Systems and methods for generating a set of custom keywords based on a media asset | |
US20190034525A1 (en) | Methods and systems for replying to queries based on indexed conversations and context | |
US20210105529A1 (en) | Systems and methods for selecting network-connected devices to provide device functions for an event | |
EP3628082A1 (en) | Methods and systems for playing back indexed conversations based on the presence of other people |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210517 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220415 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220713 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7239494 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |