JP2020501433A - 知覚可能な低音レスポンス - Google Patents

知覚可能な低音レスポンス Download PDF

Info

Publication number
JP2020501433A
JP2020501433A JP2019528905A JP2019528905A JP2020501433A JP 2020501433 A JP2020501433 A JP 2020501433A JP 2019528905 A JP2019528905 A JP 2019528905A JP 2019528905 A JP2019528905 A JP 2019528905A JP 2020501433 A JP2020501433 A JP 2020501433A
Authority
JP
Japan
Prior art keywords
user device
audio signal
output
perceptible
causing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019528905A
Other languages
English (en)
Other versions
JP6757853B2 (ja
Inventor
モーラー,ジョナサン・ブラント
ハイダー,ゾヘア
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2020501433A publication Critical patent/JP2020501433A/ja
Application granted granted Critical
Publication of JP6757853B2 publication Critical patent/JP6757853B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/22Arrangements for obtaining desired frequency or directional characteristics for obtaining desired frequency characteristic only 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/001Monitoring arrangements; Testing arrangements for loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2400/00Loudspeakers
    • H04R2400/03Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2420/00Details of connection covered by H04R, not provided for in its groups
    • H04R2420/07Applications of wireless loudspeakers or wireless microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Details Of Audible-Bandwidth Transducers (AREA)

Abstract

本開示の例示的局面は、ユーザデバイスによって知覚可能な低音レスポンスを提供することに向けられる。たとえば、第1のオーディオ信号は、第1のユーザデバイスおよび第2のユーザデバイスによって出力されることができる。再生遅延は、第1のユーザデバイスによる第1のオーディオ信号の出力と第2のユーザデバイスによる第1のオーディオ信号の出力との間で決定されることができる。第1の時刻において、第2のユーザデバイスは、第2のオーディオ信号を出力させることができる。第1のユーザデバイスは、第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させられることができ、これにより知覚可能な低音レスポンスは、第2の時刻において実行され、第2の時刻は、時間的遅延に少なくとも部分的に基づいて決定される。

Description

分野
一般に本開示は、知覚可能な低音レスポンスをユーザデバイスによって提供することに関する。
背景
ユーザコンピューティングデバイスは、オーディオ出力デバイスによるオーディオ信号の出力を実現するために、1つ以上のオーディオ出力デバイスに通信可能に結合されることができる。たとえば、ユーザコンピューティングデバイスは、スピーカデバイス、ヘッドセット、ヘッドフォン、無線イヤフォン、またはオーディオ信号を出力し得るその他の適したオーディオ出力デバイスと通信できる。可搬式オーディオ出力デバイス(たとえばヘッドセット、ヘッドフォン、またはその他のウェアラブルオーディオコンポーネント)といった、そのようなオーディオ出力デバイスは、出力されたオーディオ信号に関連付けられた十分な低音レスポンスを提供できないという問題を抱え得る。たとえば、オーディオ出力デバイスは、十分な知覚可能な低音レスポンス、すなわちオーディオ出力を聞いているときにユーザによって感じられる生理的感覚を提供できない可能性がある。さらに、そのようなオーディオ出力デバイスは、低音を生成するために著しい量の電力を提供し得、オーディオ出力デバイスの電池寿命を減少させ得る。
概要
本開示の実施形態の局面および利点は、以下の説明に部分的に記載されるか、説明から理解され得、または実施形態の実施を通じて理解され得る。
本開示の1つの例示的局面は、知覚可能な低音レスポンスを1つ以上のユーザデバイスに提供するコンピュータで実行される方法に向けられる。方法は、1つ以上のプロセッサが、第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに第1のオーディオ信号を出力させることを含む。方法は、1つ以上のプロセッサが、第1のユーザデバイスによる第1のオーディオ信号の出力と第2のユーザデバイスによる第1のオーディオ信号の出力との間の再生遅延を決定することをさらに含む。方法は、第1の時刻において、1つ以上のプロセッサが、第2のユーザデバイスに第2のオーディオ信号を出力させることをさらに含む。方法は、1つ以上のプロセッサが、第1のユーザデバイスに第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させることをさらに含み、これにより知覚可能な低音レスポンスは、第2の時刻において実行され、第2の時刻は、時間的遅延に少なくとも部分的に基づいて決定される。2つのデバイスを提供することの利点は、貧弱な低音レスポンスを被り得るオーディオデバイスの出力を補充するために、知覚可能な低音レスポンスを提供することである。知覚可能な低音レスポンスは、たとえば低音信号がラウドスピーカまたは音楽機器によって再生されるときにユーザによって通常感じられる機械的な振動を備え得る。第2のデバイスはまた、改善された低音オーディオレスポンスを提供することができる。
実施形態では、第1のユーザデバイスに第1のオーディオ信号を出力させることは、第2のユーザデバイスに第1のオーディオ信号を出力させることと実質的に同時に起こる。
実施形態では、1つ以上のプロセッサが、第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに第1のオーディオ信号を出力させることは、第1のユーザデバイスに、第1のユーザデバイスに関連付けられたスピーカデバイスによって第1のオーディオ信号を出力させ、第2のユーザデバイスに、第2のユーザデバイスに関連付けられたスピーカデバイスによって第1のオーディオ信号を出力させることを含む。
実施形態では、1つ以上のプロセッサが、再生遅延を決定することは、第1のユーザデバイスまたは第2のユーザデバイスに関連付けられた入力トランスデューサに少なくとも部分的に基づいて再生遅延を決定することを含む。再生遅延を決定することは第1のデバイスおよび第2のデバイスが同期されることを可能とし、これによりユーザは、オリジナルの録音に従って低音レスポンスおよびその他の周波数を正しい時刻において聞いて感じる。
実施形態では、方法は、1つ以上のプロセッサが、第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を生成することをさらに含む。
実施形態では、1つ以上のプロセッサが、知覚可能な低音レスポンス表現を生成することは、第2のオーディオ信号を、閾値を超える第2のオーディオ信号に関連付けられたオーディオ周波数を除去または減少させるように構成される1つ以上の均等化フィルタに印加することを含む。フィルタリングの利点は、第2のユーザデバイスが弱められた低音レスポンスを提供することを可能とし、このため電池リソースを節約することである。低音レスポンスは、主に第1のユーザデバイスによって提供される。
実施形態では、1つ以上のプロセッサが、第1のユーザデバイスに知覚可能な低音レスポンス表現を実行させることは、第1のユーザデバイスに、第1のユーザデバイスに関連付けられたスピーカデバイスによって生成された知覚可能な低音レスポンス表現を出力させることを含む。
実施形態では、1つ以上のプロセッサが、知覚可能な低音レスポンス表現を生成することは、1つ以上のプロセッサが、周波数閾値よりも低い第2のオーディオ信号に関連付けられた1つ以上のピークまたはインパルスを検出することを含む。
実施形態では、1つ以上のプロセッサが、第1のユーザデバイスに知覚可能な低音レスポンス表現を実行させることは、1つ以上のプロセッサが、第1のユーザデバイスに関連付けられた1つ以上のハプティックアクチュエータの動作を生成された知覚可能な低音レスポンス表現に少なくとも部分的に基づいて制御することを含む。ハプティックまたは力覚アクチュエータは、力、振動またはモーションをユーザに印加することによって触感を再作成するデバイスである。
実施形態では、第1のオーディオ信号および第2のオーディオ信号は、同一オーディオ信号である。
実施形態では、第2の時刻は、第1の時刻とは異なる。
第2の局面によれば、1つ以上のプロセッサと、1つ以上のメモリデバイスとを備えるコンピューティングシステムが提供され、1つ以上のメモリデバイスは、1つ以上のプロセッサによって実行されると1つ以上のプロセッサに動作を行わせるコンピュータ可読命令を格納する。動作は、第1のユーザデバイスに第1のオーディオ信号を出力させることと、第2のユーザデバイスに第1のオーディオ信号を出力させ、第1のユーザデバイスによる第1のオーディオ信号の出力と第2のユーザデバイスによる第1のオーディオ信号の出力との間の再生遅延を決定することと、第1の時刻において、第2のユーザデバイスに第2のオーディオ信号を出力させることと、第1のユーザデバイスに第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させることとを含み、これにより知覚可能な低音レスポンスは、第2の時刻において実行され、第2の時刻は、時間的遅延に少なくとも部分的に基づいて決定される。
その他の本開示の例示的局面は、ユーザデバイスによって知覚可能な低音レスポンスを提供するためのシステム、装置、有形の非一時的コンピュータ可読媒体、ユーザインターフェース、メモリデバイス、および電子デバイスに向けられる。
さまざまな実施形態のこれらおよびその他の特徴、局面および利点以下の説明および添付の特許請求の範囲を参照してよりよく理解されるであろう。本明細書に組み込まれその一部を構成する添付の図面は、本開示の実施形態を示し、明細書と共に、関連する原理を説明するのに役立つ。
図面の簡単な説明
当業者に向けられた実施形態の詳細な説明は、添付の図面を参照する明細書に記載される。
本開示の例示的実施形態に従い知覚可能な低音レスポンスを提供するための例示的システムを図示する。 本開示の例示的実施形態に従う例示的出力タイミングのグラフィック表現を図示する。 本開示の例示的実施形態に従う例示的出力タイミングのグラフィック表現を図示する。 本開示の例示的実施形態に従う例示的出力タイミングのグラフィック表現を図示する。 本開示の例示的実施形態に従い知覚可能な低音レスポンスを提供する例示的方法のフロー図を示す。 本開示の例示的実施形態に従う例示的システムを図示する。
詳細な説明
ここで実施形態を詳細に参照するが、その1つ以上の例が図面に示される。各例は、本開示を限定するものではなく、実施形態の説明として提供される。実際には、本開示の範囲または精神から逸脱することなく、実施形態にさまざまな修正および変形を加えることができることが当業者には明らかであろう。たとえば、一実施形態の一部として図示または説明されている特徴を別の実施形態と共に使用して、さらに別の実施形態を生み出すことができる。したがって、本開示の局面はそのような修正形態および変形形態を網羅することが意図されている。
本開示の例示的局面は、ユーザデバイスによって、オーディオ信号に関連付けられた知覚可能な低音レスポンスを提供することに向けられる。たとえば、第1のユーザデバイスは、第2のユーザデバイスによって出力されたオーディオ信号に関連付けられた知覚可能な低音レスポンス提供するように構成されることができる。第1のユーザデバイスは、オーディオ信号のオーディオ出力を提供することができるおよび/または1つ以上のハプティックアクチュエータを使用するハプティック信号を提供可能な任意の適したユーザデバイスであることができる。たとえば、第1のユーザデバイスは、スマートフォン、タブレット、ウェアラブルコンピューティングデバイス(たとえばスマートウォッチ、フィットネスバンド、スマートガーメント、等。)、ハプティック信号生成デバイス、および/またはその他の適したデバイスであることができる。第2のユーザデバイスは、第1のユーザデバイスと(たとえば無線通信経路または有線通信経路といった適した通信経路を介して)通信可能でありオーディオ信号のオーディオ出力を提供することができる任意の適したユーザデバイスであることができる。たとえば、第2のユーザデバイスは、スピーカデバイス、ヘッドセット(たとえば無線ヘッドセット)、ヘッドフォン(たとえば無線ヘッドフォン)、イヤフォン(たとえば無線イヤフォン)、および/またはその他の適したユーザデバイスであることができる。いくつかの実装では、第1のユーザデバイスおよび第2のユーザデバイスは、(たとえば第2のオーディオデバイスによる)オーディオ信号の再生および(たとえば第1のオーディオデバイスによる)オーディオ信号に関連付けられた知覚可能な低音レスポンス表現を同調させるように構成されることができ、これによりオーディオ信号の再生および知覚可能な低音レスポンス表現は、実質的に同期される。
より具体的に、第1のユーザデバイスは、第1のユーザデバイスによる第1のオーディオ信号の出力および第2のユーザデバイスによる第1のオーディオ信号の出力に関連付けられた再生遅延を決定することができる。再生遅延は、時間量に対応することができる。たとえば、第1のオーディオ信号は、第1のユーザデバイスおよび第2のユーザデバイスの両方上で出力されることができる。このようにして、第1のユーザデバイスは、第1のオーディオ信号を示すデータを第2のユーザデバイスに送信することによって、第2のユーザデバイスに第1のオーディオ信号を可聴に出力させることができる。第1のユーザデバイスは、同時に(たとえば、第1のオーディオ信号を示すデータを第2のユーザデバイスに提供することと実質的に同時に)第1のユーザデバイスによる第1のオーディオ信号の出力を開始することができる。いくつかの実装では、第1のオーディオ信号は、複数の異なるオーディオ信号に対応することができる。たとえば、第1のユーザデバイスによって出力されるオーディオ信号は、第2のユーザデバイスによって出力されるオーディオ信号とは異なるオーディオ信号であることができる。このようにして、第1のユーザデバイスは、第1のユーザデバイスによる第1のオーディオ信号を示すレスポンスの出力を引き起こし、第2のユーザデバイスによる第1のオーディオ信号の出力を引き起こすように構成され得る。そして第1のユーザデバイスは、第1のユーザデバイスと第2のユーザデバイスとの間の第1のオーディオ信号の再生遅延を決定することができる。
たとえば、再生遅延は、第1のオーディオ信号を示すデータが第1のユーザデバイスから第2のユーザデバイスに通信経路を介して伝わるのに必要とされる時間量に関連付けられた伝播遅延によって引き起こされ得る。伝播遅延は、第1のユーザデバイスと第2のユーザデバイスとの間の不良なまたは失われたデータの再伝送によってさらに影響され得る。伝播遅延は、チャネル条件を変化させることによって、たとえば、モバイル用途では第1のユーザデバイスが無線で第2のユーザデバイスと通信するかどうかによってさらに影響され得る。再生遅延は第1のユーザデバイスおよび/または第2のユーザデバイス上のローカル処理遅延によってさらに引き起こされ得る。
いくつかの実装では、再生遅延は、第1のユーザデバイスに関連付けられた入力トランスデューサを使用して決定されることができる。たとえば、入力トランスデューサは、第2のユーザデバイスによって出力された音を検出するように構成され得る。再生遅延は、そして検出音に少なくとも部分的に基づいて決定されることができる。いくつかの実装では、再生遅延は、第2のユーザデバイスに関連付けられた入力トランスデューサを使用して決定されることができる。いくつかの実装では、再生遅延は、第2のユーザデバイスによって提供される認識メッセージに少なくとも部分的に基づいて決定されることができる。たとえば、第1のオーディオ信号を示すデータを受信すると、第2のユーザデバイスは、認識メッセージを第1のユーザデバイスに通信経路を介して(たとえば通信経路に関連付けられたオーディオチャネルおよび/またはコントロールチャネルを介して)提供することができる。再生遅延は、認識メッセージに少なくとも部分的に基づいて決定されることができる。
示されるように、第2のユーザデバイスによる第2のオーディオ信号の出力と第1のオーディオデバイスによる第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現との同調は、再生遅延に少なくとも部分的に基づいて決定されることができる。同調は、出力が実質的に同期されるように決定されることができる。ここに使用されるように、「実質的に同期される」という用語は、第2のユーザデバイスによる第2のオーディオ信号の出力が第1のユーザデバイスによる知覚可能な低音レスポンス表現の出力から許容される遅延閾値以内で起こることを意味する。許容される遅延閾値は、2つ以上の出力間の遅延が人間のユーザによって認識されない許容される遅延閾値以下の時間量によって分離されるような時間量または時間間隔であることができる。
第1のユーザデバイスおよび第2のユーザデバイスによる出力のためにユーザが第2のオーディオ信号を選択すると、第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現が生成されることができる。いくつかの実装では、第2のオーディオ信号は、第1のオーディオ信号と同じオーディオ信号であることができる。いくつかの実装では、第2のオーディオ信号は、第1のオーディオ信号とは異なるオーディオ信号であることができる。たとえば、第1のオーディオ信号は、ユーザが第2のオーディオ信号の再生を選択するときに実装される再生遅延を決定するために使用されるテスト信号であることができる。
いくつかの実装では、知覚可能な低音レスポンス表現は、第2のオーディオ内の1つ以上の周波数を弱めるために、第2のオーディオ信号を1つ以上の均等化フィルタに印加することによって生成されることができる。たとえば、均等化フィルタは、低音周波数範囲(たとえば60Hz〜250Hz)、および/またはサブ低音周波数範囲(たとえば16Hz〜60Hz)外の周波数を弱めるように構成されることができる。さまざまな適した周波数を弱めるために、さまざまな適したフィルタ構成が使用可能であることが理解されるだろう。このようにして、知覚可能な低音レスポンス表現は、均等化および/またはフィルタされた第2のオーディオ信号であることができる。
いくつかの実装では、知覚可能な低音レスポンス表現は、第1のユーザデバイスに関連付けられた1つ以上のハプティックアクチュエータによって提供される1つ以上のハプティック信号を含むことができる。ハプティックまたは力覚アクチュエータは、ユーザに力、振動またはモーションを印加することによって触感を再現するデバイスである。たとえば、ハプティックアクチュエータは、リニアモータアクチュエータ、偏心モータアクチュエータ、および/またはその他の適したハプティックアクチュエータであることができる。ハプティックアクチュエータ(複数可)の動作は、第2のオーディオ信号の低音部分に対応する1つ以上のハプティック信号を提供するように制御されることができる。このようにして、知覚可能な低音レスポンス表現は、第2のオーディオ信号の低音部分を擬似するハプティック信号を含むことができる。たとえば、いくつかの実装では、オーディオ信号の周波数スペクトルは、低音周波数範囲内の1つ以上の信号ピークまたはインパルスを検出するために分析されることができる。ハプティックアクチュエータ(複数可)の動作は、検出されたピークまたはインパルスに対応するハプティック信号を提供するように制御されることができる。
第1のユーザデバイスによる知覚可能な低音レスポンス表現の出力は、出力を実質的に同期するために第2のユーザデバイスによる第2のオーディオ信号の出力と同調されることができる。同調は、再生遅延に等しい時間量の後に第1のユーザデバイスが知覚可能な低音レスポンス表現を出力させるように構成されるように、知覚可能な低音レスポンス表現の出力に再生遅延を印加することによって行われることができる。たとえば、第1のユーザデバイスは、第2のユーザデバイスによる第2のオーディオ信号の出力のために、第2のオーディオ信号を示すデータを第2のユーザデバイスに提供することができる。そして第1のユーザデバイスは、再生遅延に少なくとも部分的に基づいて第1のユーザデバイスによる知覚可能な低音レスポンス表現の出力を遅延させることによって再生遅延を印加することができ、これにより第1のユーザデバイスは、知覚可能な低音レスポンス表現を第2のユーザデバイスによる第2のオーディオ信号の出力と実質的に同期される方法で出力する。いくつかの実装では、第1のユーザデバイスは、再生遅延に等しい時間の間、知覚可能な低音レスポンス表現の出力の開始を単純に待つ。いくつかの実装では、第1のユーザデバイスは、再生遅延を知覚可能な低音レスポンス表現の出力を制御する1つ以上の信号へとエンコードできる。たとえば、第1のユーザデバイスは、再生が再生遅延の後に開始されるように、再生の動作を制御できる。いくつかの実装では、第1のユーザデバイスによる知覚可能な低音レスポンス表現の出力が知覚可能な低音レスポンス表現の埋められた(パディング)部分を含むように、第1のユーザデバイスは、再生遅延に少なくとも部分的に基づいて、知覚可能な低音レスポンス表現の始まりをnullデータ、および/または非出力または無音出力を示すデータで埋めることができる。
いくつかの実装では、第2のオーディオ信号は、第2のユーザデバイスに関連付けられた1つ以上の均等化フィルタをさらに提供されることができる。第2のユーザデバイスに関連付けられた均等化フィルタは、第2のオーディオ信号に関連付けられた低音周波数を弱めるように構成されることができる。このようにして、フィルタされた第2のオーディオ信号は、第2のユーザデバイスによって出力されることができ、これにより第2のユーザデバイスは、より少ない低音周波数を出力する。そのような均等化技法は、電池リソースを節約することができる。いくつかの実装では、第2のオーディオ信号に関連付けられた音量および/または知覚可能な低音レスポンス表現の出力は同調されることができる。たとえば、いくつかの実装では、ユーザは、第1のユーザデバイスまたは第2のユーザデバイス上の音量を選択でき、その他のユーザデバイスの音量は、選択された音量に一致するように調節されることができる。いくつかの実装では、第1のユーザデバイスの音量は、ユーザに対する第1のユーザデバイスの位置に少なくとも部分的に基づいて調節されることができる。たとえば、第1のユーザデバイスの音量は、第1のユーザデバイスがユーザのポケットの中にあるか、ユーザの手の中にあるか、ユーザによって持たれていないか等に基づいて調節されることができる。同様に、いくつかの実装では、第2のユーザデバイスの音量は、ユーザに対する第2のユーザデバイスの位置に少なくとも部分的に基づいて調節されることができる。たとえば、第2のユーザデバイスがヘッドセットである実装では、第2のユーザデバイスの音量は、第2のユーザデバイスがユーザの耳の中にあるか、ユーザの耳の外にあるか、ユーザの首の周りにあるか等に基づいて調節されることができる。たとえば、第1のユーザデバイスおよび/または第2のユーザデバイスの位置は、第1のユーザデバイスおよび/または第2のユーザデバイスそれぞれに関連付けられた1つ以上の位置決めセンサに少なくとも部分的に基づいて決定されることができる。たとえば、1つ以上のセンサは、慣性測定ユニットを含むことができる。
図を参照して、本開示の例示的局面がより詳細に議論される。たとえば、図1は、本開示の例示的実施形態に従いオーディオ信号に関連付けられた知覚可能な低音レスポンスを提供するための例示的システム100を図示する。システム100は、第1のユーザデバイス102および第2のユーザデバイス104を含む。第1のユーザデバイス102は、スマートフォン、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、ウェアラブルコンピューティングデバイス、等といった任意の適したユーザデバイスを含むことができる。第2のユーザデバイス104は、たとえば、スピーカデバイス、ヘッドセット、等といったオーディオ信号を可聴に出力可能なデバイスであることができる。
第1のユーザデバイス102は、遅延決定子106、低音レスポンスジェネレータ108、および出力コーディネータ110を含む。遅延決定子106は、第1のユーザデバイス102によるオーディオの出力と第2のユーザデバイス104によるオーディオの出力との間の再生遅延を決定するように構成されることができる。再生遅延は、第1のユーザデバイス102による出力が開始されるとき、第1のユーザデバイス102と比較して第2のユーザデバイス104がオーディオ信号を出力するために必要とされる時間差に対応することができる。オーディオ信号はユーザによって選択されることができる。いくつかの実装では、オーディオ信号は、再生遅延を決定するために使用されるテストオーディオ信号であることができる。たとえば、第1のユーザデバイス102は、第2のユーザデバイスによるオーディオ信号の出力を、オーディオ信号を示すデータを第2のユーザデバイス104に通信経路112を介して提供することによって開始することができる。通信経路112は、無線通信経路または有線通信経路であることができる。実装では、通信経路112は、無線通信経路であり、通信経路は、ブルートゥース(登録商標)、Wi−Fi、Wi−Fiダイレクト、近距離無線通信、赤外線通信等のさまざまな適した無線通信技術を使用して実装されることができる。オーディオ信号を示すデータを通信経路112を介して受信すると、第2のユーザデバイス104は、オーディオ信号を第2のユーザデバイスに関連付けられた1つ以上のオーディオ出力デバイス116(たとえばスピーカ)を介して出力することができる。
第1のユーザデバイス102は、第1のユーザデバイスに関連付けられたオーディオ出力デバイス118によるオーディオ信号の出力を、たとえば、オーディオ信号を示すデータをオーディオ出力デバイス118に提供することによってさらに開始することができる。たとえば、第1のユーザデバイス102は、第2のユーザデバイス104によるオーディオ信号の出力を開始するのと実質的に同時に、オーディオ出力デバイス118によるオーディオ信号の出力を開始することができる。このようにして、第1のユーザデバイス102は、オーディオ信号を示すデータを第2のユーザデバイス104に提供するのと実質的に同時に、オーディオ信号を示すデータをオーディオ出力デバイス118に提供することができる。再生遅延は、第1のユーザデバイス102および第2のユーザデバイス104によるオーディオ信号の出力のタイミングに少なくとも部分的に基づいて決定されることができる。
たとえば、図2は、本開示の例示的実施形態に従う第1のユーザデバイス102および第2のユーザデバイス104による例示的出力タイミング150のグラフィック表現を図示する。たとえば、第1のユーザデバイス102は、第1のユーザデバイス102および第2のユーザデバイス104によるオーディオ信号の出力を時刻T1において開始することができる。このようにして、時刻T1において、第1のユーザデバイス102は、オーディオ信号を示すデータをオーディオ出力デバイス118および第2のユーザデバイス104に提供することができる。第1のユーザデバイス102は、オーディオ信号を時刻T2において出力(たとえば可聴に出力)することができる。時刻T1と時刻T2との間の遅延は、たとえば、第1のユーザデバイス102によるオーディオ信号の出力に関連付けられたローカル処理遅延および/またはその他の遅延によって引き起こされ得る。第2のユーザデバイス104は、時刻T3においてオーディオ信号を出力(たとえば可聴に出力)することができる。時刻T3と時刻T1との間の遅延は、たとえば、通信経路112を介するオーディオ信号を示すデータの伝送に関連付けられた伝送および/または伝播遅延によって、第2のユーザデバイス104によるオーディオ信号の出力に関連付けられたローカル処理遅延、および/またはその他の遅延によって引き起こされ得る。再生遅延は、T2とT3との間の時間量に対応することができる。このようにして、再生遅延は第2のユーザデバイス104と比較して第1のユーザデバイス102がオーディオ信号出力するのに必要とされる時間差に等しい時間量に対応することができる。
再び図1を参照して、再生遅延は、たとえば、第1のユーザデバイス102に関連付けられた入力トランスデューサ120を使用して決定されることができる。たとえば、入力トランスデューサ120は、音を「検知」または検出することができるマイクロホン、またはその他の適した入力トランスデューサであることができる。このようにして、第2のユーザデバイス104によるオーディオ信号の可聴出力が行われると、入力トランスデューサ120は、第2のユーザデバイス104によって出力されたときにオーディオ信号に関連付けられた音を検知または検出することができる。そして遅延決定子106は、検出された音に少なくとも部分的に基づいて再生遅延を決定することができる。たとえば、遅延決定子106は、再生遅延を決定するために、時刻T2(たとえば第1のユーザデバイス102がオーディオ信号を出力する時刻)から入力トランスデューサ120によって音が検出される時刻を差し引くことができる。いくつかの実装では、再生遅延は、第2のユーザデバイス104に関連付けられた入力トランスデューサ124に少なくとも部分的に基づいて決定されることができる。たとえば、第2のユーザデバイス104によるオーディオ信号の可聴出力が行われると、入力トランスデューサ124は、第2のユーザデバイス104によって出力されたときに、オーディオ信号に関連付けられた音を検知または検出することができる。検出された音に関連付けられたデータ(たとえば検出された音に関連付けられたタイミング情報)は、第1のユーザデバイス102に提供されることができる。そして遅延決定子106は、検出された音に関連付けられたデータに少なくとも部分的に基づいて再生遅延を決定することができる。
いくつかの実装では、遅延決定子106は、オーディオ信号を示すデータを受信することに応じて、第2のユーザデバイス104が第1のユーザデバイス102に提供する認識メッセージに少なくとも部分的に基づいて再生遅延を決定することができる。たとえば、認識メッセージは、データの受信時刻を示すタイムスタンプを含むことができる。認識メッセージは、通信経路112を介して提供されることができる。たとえば、いくつかの実装では、認識メッセージは、通信経路112に関連付けられたコントロールチャネルを介して提供されることができる。いくつかの実装では、認識メッセージは、通信経路112に関連付けられたオーディオチャネルを介して提供されることができる。
低音レスポンスジェネレータ108は、第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を生成するように構成されることができる。たとえば、第2のオーディオ信号は、第1のユーザデバイス102および/または第2のユーザデバイス104によって出力されるようにユーザが選択できる。いくつかの実装では、知覚可能な低音レスポンス表現は、フィルタされたおよび/または均等化されたオーディオ信号対応する第2のオーディオ信号であることができる。そのような実装では、低音レスポンスジェネレータ108は、第2のオーディオ信号を第1のユーザデバイス102内に実装された1つ以上の均等化フィルタに印加することによって、知覚可能な低音レスポンス表現を生成することができる。たとえば、1つ以上の均等化フィルタは、1つ以上のマルチバンドイコライザ、バンドパスフィルタ、DCノッチフィルタ、ハイパスフィルタ、ハイシェルフフィルタ、ローパスフィルタ、ローシェルフフィルタ、ノッチフィルタ、パラメトリックイコライザ、および/または任意のその他の適したフィルタを含むことができる。1つ以上の均等化フィルタは、第2のオーディオ信号の高い周波数を弱めるように構成されることができる。知覚可能な低音レスポンス表現を生成するために、フィルタがさまざまな方法で構成および/または配置可能であることが理解されるだろう。たとえば、1つ以上の均等化フィルタは、第2のオーディオ信号における非低音周波数(たとえば250Hzを超える周波数)を弱めるように構成されることができる。1つ以上の均等化フィルタの出力は、フィルタされた第2のオーディオ信号であることができる。このようにして、知覚可能な低音レスポンス表現は、フィルタされた第2のオーディオ信号であることができる。
いくつかの実装では、知覚可能な低音レスポンス表現は、第1のユーザデバイスに関連付けられた1つ以上のハプティックアクチュエータ122に関連付けられた1つ以上のハプティック信号を含むことができる。たとえば、ハプティック信号は、オーディオ信号における低音周波数に対応するように決定されることができる。このようにして、知覚可能な低音レスポンス表現の出力は、第2のオーディオ信号の低音周波数と同調されるハプティックアクチュエータ122による1つ以上のハプティック信号の出力を含むことができる。たとえば、そのような知覚可能な低音レスポンス表現は、第2のオーディオ信号の低音周波数範囲内の1つ以上のピークまたはインパルスを検出することによって決定されることができる。ピークは、1つ以上の適したピーク検出アルゴリズムを使用して検出されることができる。たとえば、ピークまたはインパルスは、閾値を超える振幅を有する低音周波数範囲内の第2のオーディオ信号の部分を含むことができる。低音レスポンスジェネレータ108は、検出されたピークまたはインパルスに少なくとも部分的に基づいて知覚可能な低音レスポンス表現を決定することができる。低音レスポンスジェネレータ108は、ハプティックアクチュエータ122が検出されたピークまたはインパルスに対応するハプティック信号を提供するように、ハプティックアクチュエータ(複数可)122の動作を制御することができる。たとえば、ハプティック信号のタイミングは、ピークまたはインパルスのタイミングに対応することができる。ハプティック信号の強度は、検出されたピークまたはインパルスの振幅に対応することができる。このようにして、第2のオーディオ信号が出力されるときに低音構成の表現を提供するために、知覚可能な低音レスポンス表現は、第2のオーディオ信号の低音構成に対応することができる。
知覚可能な低音レスポンス表現を決定すると、出力コーディネータ110は、第1のユーザデバイス102および第2のユーザデバイス104による出力を同期するために、第2のオーディオ信号の出力および知覚可能な低音レスポンス表現とを同調させることができる。特に、出力コーディネータは、再生遅延に少なくとも部分的に基づいて出力を同調させることができる。たとえば、出力コーディネータ110は、出力がユーザデバイス間で実質的に同期されるように、再生遅延に少なくとも部分的に基づいて出力のタイミングを制御することができる。
出力コーディネータ110は、出力を同期させる目的を有するさまざまな適した方法で第1のユーザデバイス102および第2のユーザデバイス104の出力を同調可能であることが理解されるだろう。いくつかの実装では、出力コーディネータ110は、知覚可能な低音レスポンス表現を示すデータのオーディオ出力デバイス118および/またはハプティックアクチュエータ(複数可)122への提供を、第2のユーザデバイス104への第2のオーディオ信号を示すデータの提供に対して保留することによって、出力遅延に少なくとも部分的に基づいて出力を同調させることができる。たとえば、図3は、本開示の例示的実施形態に従い実質的に同期される出力を提供するための出力タイミング160の例示的なグラフィカル表現を図示する。出力コーディネータ110は、第2のユーザデバイス104に提供されるべき第2のオーディオ信号を示すデータを時刻T1に配置できる。出力コーディネータ110は、オーディオ出力デバイス118および/またはハプティックアクチュエータ(複数可)122に提供されるべき知覚可能な低音レスポンス表現を示すデータを時刻T4においてさらに配置できる。時刻T4は、時刻T1および再生遅延に少なくとも部分的に基づいて決定されることができる。たとえば、示されるように、時刻T4は、時刻T1の後に再生遅延に等しい時間間隔をあけて発生することができる。このようにして、同調は、知覚可能な低音レスポンス表現および第2のオーディオ信号を、時刻T3において実質的に同期される方法で第1のユーザデバイス102および第2のユーザデバイス104にそれぞれ出力させる目的で行われることができる。
いくつかの実装では、出力コーディネータ110は、再生遅延を、知覚可能な低音レスポンス表現を示すデータへと、または知覚可能な低音レスポンス表現の出力を制御する1つ以上の信号内にエンコードすることができる。たとえば、図4は、本開示の例示的実施形態に従う例示的出力タイミング162のグラフィカル表現を図示する。出力コーディネータ110は、オーディオ出力デバイス118および/またはハプティックアクチュエータ(複数可)122に提供されるべき知覚可能な低音レスポンス表現を示すデータを時刻T1において配置でき、第2のユーザデバイス104に提供されるべき第2のオーディオ信号を示すデータを時刻T1において配置できる。出力コーディネータ110は、知覚可能な低音レスポンス表現を示すデータをnullデータ164またはその他のデータを用いてさらに埋めることができ、これにより第1のユーザデバイス102は、nullデータ164を時刻T2において出力し始める。nullデータ164は、再生遅延に等しい時間量に対応することができる。このようにして、第1のユーザデバイス102は、nullデータ164を時刻T3まで出力することができる。そして第1のユーザデバイス102は、第2のユーザデバイス104が第2のオーディオ信号を出力し始めることを予測される時刻T3において、知覚可能な低音レスポンス表現を出力し始める。
再び図1を参照して、いくつかの実装では、低音レスポンスジェネレータ108は、知覚可能な低音レスポンス表現の少なくとも部分をリアルタイムまたはほぼリアルタイムで決定するように構成されることができる。そのような実装では、ピーク検出は、第2のオーディオ信号に対して第2のユーザデバイス104への第2のオーディオ信号を示すデータの提供と同時に開始されることができる。たとえば、第2のオーディオ信号は図2〜図4内に示される時刻T1において1つ以上のピーク検出アルゴリズムに提供されることができる。第2のオーディオ信号を示すデータは、時刻T1において第2のユーザデバイス104にさらに提供されることができる。そして低音レスポンスジェネレータは、検出されたピークの発生に応じて各検出されたピークに対する1つ以上のハプティック信号を決定することができる。そして出力コーディネータ110は、決定されたハプティック信号に再生遅延を印加することができ、これによりハプティックアクチュエータ(複数可)122は、再生遅延に等しい時間の後にハプティック信号を出力する。このようにして、ハプティック信号は、第2のユーザデバイス104の出力と実質的に同期されることができる。
いくつかの実装では、知覚可能な低音レスポンス表現は、1つ以上のハプティック信号および弱められた非低音周波数を有するフィルタされた第2のオーディオ信号の出力を含むことができる。このようにして、知覚可能な低音レスポンス表現の出力は、オーディオデバイス118およびハプティックアクチュエータ(複数可)122によって行われることができる。そのような実装では、ハプティック信号の決定、およびハプティック信号およびフィルタされたオーディオ信号の出力は、さまざまな適した方法で同調されることができる。
図5は、本開示の例示的実施形態に従い知覚可能な低音レスポンスを提供する例示的方法(200)のフロー図を図示する。方法(200)は、図6に示される1つ以上のコンピューティングデバイスといった、1つ以上のコンピューティングデバイスによって実装されることができる。特定の実装では、方法(200)は、図1に示される遅延決定子106、低音レスポンスジェネレータ108、および出力コーディネータ110によって実装されることができる。加えて、図3は、図示および説明の目的で特定の順序で行われるステップを示す。当業者は、本明細書で提供される開示を使用して、本開示の範囲から逸脱することなく、本明細書で論じられる方法のいずれかのステップをさまざまな方法で適合、再配置、拡張、省略、または修正できることを理解されよう。
(202)において、方法(200)は、第1のユーザデバイスおよび第2のユーザデバイスに第1のオーディオ信号を出力させるように命令することを含むことができる。たとえば、第1のオーディオ信号を示すデータおよび第1のオーディオ信号を出力させる命令は、第1のユーザデバイスおよび第2のユーザデバイスに提供されることができる。命令は実質的に同時に(たとえば同じ時刻において、または実質的に同じ時刻において)提供されることができる。いくつかの実装では、第1のユーザデバイスは、第1のユーザデバイスおよび第2のユーザデバイス内に実装されたオーディオ出力デバイスに命令を提供することができる。
(204)において、方法(200)は、第1のユーザデバイスによる第1のオーディオ信号の出力と第2のユーザデバイスによる第1のオーディオ信号の出力との間の再生遅延を決定することを含むことができる。示されるように、第2のユーザデバイスによる出力は、伝送または伝播遅延、第1のユーザデバイスまたは第2のユーザデバイスに関連付けられた処理遅延、および/またはその他の遅延に少なくとも部分的に基づいて、第1のユーザデバイスの出力に対して遅延され得る。いくつかの実装では、再生遅延は、第1のユーザデバイスおよび/または第2のユーザデバイスによる第1のオーディオ信号の可聴出力に少なくとも部分的に基づいて決定されることができる。可聴出力は、第1のユーザデバイスおよび/または第2のユーザデバイスに関連付けられた入力トランスデューサによって検出されまたは検知されることができる。たとえば、第2のユーザデバイスの出力は、第1のユーザデバイスに関連付けられたトランスデューサによって検出されることができ、検出のタイミングは、第1のユーザデバイスによる出力のタイミングと比較されることができる。別の例として、第2のユーザデバイスの出力は、第2のユーザデバイスに関連付けられた入力トランスデューサによって検出されることができ、検出を示すデータは、第1のユーザデバイスに再生遅延を決定するために提供されることができる。
いくつかの実装では、再生遅延は、第2のユーザデバイスによって第1のユーザデバイスに提供される第1のオーディオ信号を示すデータの受信に応答する認識メッセージに少なくとも部分的に基づいて決定されることができる。たとえば、第1のオーディオ信号を示すデータの受信の時刻を示すタイムスタンプは、認識メッセージ内に含まれることができ、第2のユーザデバイスおよび/または第1のユーザデバイスによる第1のオーディオ信号の出力の時刻と比較される。再生遅延は、本開示の範囲から逸脱することなく、さまざまな適した方法で決定可能であることが理解されるだろう。
(206)において、方法(200)は、第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を決定することを含むことができる。いくつかの実装では、第2のオーディオ信号は、出力のためにユーザが選択できる。いくつかの実装では、第2のオーディオ信号は、第1のオーディオ信号と同じオーディオ信号であることができる。知覚可能な低音レスポンス表現は、低音周波数範囲(たとえば60Hz〜250Hz)にない周波数を弱めるために、第2のオーディオ信号をフィルタリングすることによって決定されることができる。このようにして、第2のオーディオ信号は、そのような非低音周波数を弱めるように構成される1つ以上の均等化フィルタに提供されることができる。いくつかの実装では、知覚可能な低音レスポンス表現は、第1のユーザデバイスに関連付けられた1つ以上のハプティックアクチュエータによって出力されるべき1つ以上のハプティック信号を含むことができる。いくつかの実装では、ハプティックアクチュエータ(複数可)は、第1のユーザデバイスとは別個であることができる。たとえば、ハプティックアクチュエータ(複数可)は、第1のユーザデバイスと通信する別のデバイス内に実装されることができる。第1のユーザデバイスは、知覚可能な低音レスポンス表現(たとえばハプティック信号)を別デバイスに出力させるように命令するために、知覚可能な低音レスポンス表現を示すデータを別デバイスに提供することができる。
(208)において、方法(200)は、第2のユーザデバイスに第2のオーディオ信号を可聴に出力するように命令することを含むことができる。特に、命令は、第2のユーザデバイスに第1の時刻において提供されることができる。このようにして、第1のユーザデバイスは、第2のオーディオ信号を示すデータを第2のユーザデバイスに第1の時刻において提供することができる。
(210)において、方法(200)は、第1のユーザデバイスに知覚可能な低音レスポンス表現を第2の時刻において出力させることを含むことができる。第2の時刻は、第1の時刻の後の時刻であることができる。第2の時刻は、再生遅延に少なくとも部分的に基づいて決定されることができる。このようにして、第1のユーザデバイスおよび第2のユーザデバイスの出力は、同調されることができ、これにより知覚可能な低音レスポンスの出力は、第2のオーディオ信号の出力に時間的に相関される(たとえば実質的に同期される)。いくつかの実装では、同調は、再生遅延に基づいて知覚可能な低音レスポンスを出力させるための第1のユーザデバイスに対する命令の提供を保留することによって行われることができる。たとえば、命令は、第1の時刻と第2の時刻との間の第3の時刻において提供されることができる。第3の時刻は、再生遅延に少なくとも部分的に基づいて決定されることができる。いくつかの実装では、同調は、知覚可能な低音レスポンス表現の出力前にnullデータが出力されるように、知覚可能な低音レスポンスを示すデータをnullデータで埋めることによって行われることができる。nullデータは、再生遅延に少なくとも部分的に基づいて決定されることができる。出力の同調は、出力を同期する目的で、さまざまな適した方法で行われることができるということが理解されるだろう。
図6は、本開示の例示的局面に従う方法およびシステムを実現するために使用されることができる例示的コンピューティングシステム300を示す。システム300は、1つ以上の第2のユーザデバイス330とネットワーク340を介して通信する第1のユーザデバイス310を含むクライアント−サーバアーキテクチャを使用して実装されることができる。システム300は、単一のコンピューティングデバイスといったその他の適したアーキテクチャ使用して実装されることができる。
システム300は、第1のユーザデバイス310を含む。第1のユーザデバイス310は、スマートフォン、タブレット、デスクトップコンピュータ、ラップトップコンピュータ、ウェアラブルコンピューティングデバイス、ハプティックアクチュエータ、等といった任意の適したコンピューティングデバイスであることができる。第1のユーザデバイス310は、1つ以上のプロセッサ312および1つ以上のメモリデバイス314を有することができる。第1のユーザデバイス310はまた、ネットワーク340を介して1つ以上の第2のユーザデバイス330と通信するために使用されるネットワークインタフェースを含むことができる。ネットワークインタフェースは、たとえば送信機、受信機、ポート、コントローラ、アンテナ、または他の適切なコンポーネントを含む、別のネットワークとインタフェースするための任意の適切なコンポーネントを含むことができる。
1つ以上のプロセッサ312は、中央処理装置、マイクロプロセッサ、マイクロコントローラ、集積回路、ロジックデバイス、または他の適切な処理デバイスなどの、任意の適切な処理デバイスを含むことができる。1つ以上のメモリデバイス314は、非一時的コンピュータ可読媒体、RAM、ROM、ハードドライブ、フラッシュドライブ、または他のメモリデバイスを含むがこれらに限定されない1つ以上のコンピュータ可読媒体を含むことができる。1つ以上のメモリデバイス314は、1つ以上のプロセッサ312が実行可能なコンピュータ可読命令316を含む、1つ以上のプロセッサ312がアクセス可能な情報を格納することができる。命令316は、1つ以上のプロセッサ312によって実行されたときに、1つ以上のプロセッサ312に動作を実行させる命令の任意の組とすることができる。たとえば、命令316は、図1に示す遅延決定子106、低音レスポンスジェネレータ108、および出力コーディネータ110を実装するために、1つ以上のプロセッサ312が実行することができる。
図6に示されるように、1つ以上のメモリデバイス314はまた、1つ以上のプロセッサ312が検索し、操作し、作成し、または格納することができるデータ318を格納できる。データ318は、たとえば、知覚可能な低音レスポンスデータ、遅延データ、およびその他のデータを含むことができる。データ318は、ローカルに第1のユーザデバイス310上におよび/または1つ以上のデータベース内に格納されることができる。1つ以上のデータベースは、広帯域幅のLANまたはWANによって第1のユーザデバイス310に接続されることができ、またはネットワーク340を介して第1のユーザデバイス310に接続されることができる。1つ以上のデータベースを分割して、複数のロケールに配置することもできる。
第1のユーザデバイス310は、1つ以上のオーディオ出力デバイス118、入力トランスデューサ120、1つ以上のハプティックアクチュエータ122、タッチスクリーン、タッチパッド、データ入力キー、スピーカ、音声認識に適したマイクなどの、ユーザから情報を提供および受信するためのさまざまな入出力デバイスを含むことができる。たとえば、第1のユーザデバイス310は、本開示の例示的局面に従うユーザインターフェースを提示するための表示デバイスを有することができる。
第1のユーザデバイス310は、ネットワーク340を介して1つ以上の第2のユーザデバイス330とデータを交換することができる。ネットワーク340を介して任意の数の第2のユーザデバイス330を第1のユーザデバイス310に接続できることが理解されよう。第2のユーザデバイス330の各々は、スピーカデバイス、オーディオ出力デバイス、ヘッドセットデバイス、汎用コンピュータ、専用コンピュータ、ラップトップ、デスクトップ、モバイル機器、ナビゲーションシステム、スマートフォン、タブレット、ウェアラブルコンピューティングデバイス、1つ以上のプロセッサを有するディスプレイ、または他の適切なコンピューティングデバイスなどの任意の適切な種類のコンピューティングデバイスであることができる。
第1のデバイス310と同様に、第2のデバイス330は、1つ以上のプロセッサ332およびメモリ334を含むことができる。1つ以上のプロセッサ(複数可)332は、1つ以上の中央処理装置(CPU)、マイクロプロセッサ、マイクロコントローラ、集積回路、ロジックデバイス、および/またはその他の処理デバイスを含むことができる。メモリ334は、1つ以上のコンピュータ可読媒体を含むことができ、1つ以上のプロセッサ332が実行可能な命令336およびデータ338を含む、1つ以上のプロセッサ332がアクセス可能な情報を格納することができる。たとえば、メモリ334は、本開示の例示的局面を実装するための命令336を格納することができる。
図6の第2のデバイス330は、1つ以上のオーディオ出力デバイス116、入力トランスデューサ124、タッチスクリーン、タッチパッド、データ入力キー、スピーカおよび/または音声認識に適したマイクロホンなどの、ユーザから情報を提供および受信するためのさまざまな入出力装置を含むことができる。
第2のデバイス330はまた、ネットワーク340を介して1つ以上のリモートコンピューティング装置(たとえば、第1のデバイス310)と通信するために使用されるネットワークインタフェースを含むことができる。ネットワークインタフェースは、たとえば、送信機、受信機、ポート、コントローラ、アンテナ、または他の適切なコンポーネントを含む、別のネットワークとインタフェースするための任意のコンポーネントを含む。
ネットワーク340は、ローカルエリアネットワーク(たとえばイントラネット)、ワイドエリアネットワーク(たとえばインターネット)、セルラネットワーク、またはそれらの任意の組合せなど、任意の種類の通信ネットワークとすることができる。ネットワーク340はまた、第2のデバイス330と第1のデバイス310との間の直接接続を含むことができる。一般に、第1のデバイス310と第2のデバイス330との間の通信は、さまざまな通信プロトコル(TCP/IP、UDP/IP、RTP、RTSP、HTTP、SMTP、FTPなど)、エンコードまたはフォーマット(HTML、XMLなど)、および/または保護スキーム(VPN、セキュアHTTP、SSL)を使用する任意の種類の有線および無線接続を使用するネットワークインタフェースを介して行われることができる。
本明細書で論じられる技術は、サーバ、データベース、ソフトウェアアプリケーション、および他のコンピュータベースのシステム、ならびにそのようなシステム間で行われるアクションおよび送受される情報に言及する。当業者は、コンピュータベースのシステムの固有の柔軟性が、コンポーネント間の、およびコンポーネント間のタスクおよび機能の多種多様な可能な構成、組み合わせ、および分割を可能にすることを認識するであろう。たとえば、本明細書で論じられるサーバ処理は、単一のサーバまたは組み合わせて動作する複数のサーバを使用して実装され得る。データベースおよびアプリケーションは、単一のシステム上に実装することも、複数のシステムに分散され得る。分散されたコンポーネントは、順次または並列に動作され得る。
本主題をその特定の例示的な実施形態に関して詳細に説明してきたが、当業者であれば、前述の理解に達すると、そのような実施形態に対する変更、変形、および均等物を容易に生み出すことができる。したがって、本開示の範囲は、限定ではなく例であり、本開示は、当業者には明らかなそのような修正、変形、および/または追加を本主題への包含を排除するものではない。

Claims (20)

  1. 知覚可能な低音レスポンスを1つ以上のユーザデバイスに提供するコンピュータで実行される方法であって、前記方法は、
    1つ以上のプロセッサが、第1のユーザデバイスに第1のオーディオ信号を示すレスポンスを出力させ、第2のユーザデバイスに前記第1のオーディオ信号を出力させることと、
    前記1つ以上のプロセッサが、前記第1のユーザデバイスによる前記第1のオーディオ信号の前記出力と前記第2のユーザデバイスによる前記第1のオーディオ信号の前記出力との間の再生遅延を決定することと、
    第1の時刻において、前記1つ以上のプロセッサが、前記第2のユーザデバイスに第2のオーディオ信号を出力させることと、
    前記1つ以上のプロセッサが、前記第1のユーザデバイスに前記第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させることとを含み、これにより前記知覚可能な低音レスポンスは、第2の時刻において実行され、前記第2の時刻は、時間的な前記遅延に少なくとも部分的に基づいて決定される、コンピュータで実行される方法。
  2. 前記第1のユーザデバイスに前記第1のオーディオ信号を出力させることは、前記第2のユーザデバイスに前記第1のオーディオ信号を出力させることと実質的に同時に起こる、請求項1に記載のコンピュータで実行される方法。
  3. 1つ以上のプロセッサが、第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに前記第1のオーディオ信号を出力させることは、前記第1のユーザデバイスに、前記第1のユーザデバイスに関連付けられたスピーカデバイスによって前記第1のオーディオ信号を出力させることと、前記第2のユーザデバイスに、第2のユーザデバイスに関連付けられたスピーカデバイスによって前記第1のオーディオ信号を出力させることとを含む、請求項1に記載のコンピュータで実行される方法。
  4. 前記1つ以上のプロセッサが、再生遅延を決定することは、前記第1のユーザデバイスまたは前記第2のユーザデバイスに関連付けられた入力トランスデューサに少なくとも部分的に基づいて前記再生遅延を決定することを含む、請求項1に記載のコンピュータで実行される方法。
  5. 前記1つ以上のプロセッサが、前記第2のオーディオ信号に関連付けられた前記知覚可能な低音レスポンス表現を生成することをさらに含む、請求項1に記載のコンピュータで実行される方法。
  6. 前記1つ以上のプロセッサが、知覚可能な低音レスポンス表現を生成することは、前記第2のオーディオ信号を、閾値を超える前記第2のオーディオ信号に関連付けられたオーディオ周波数を除去または減少するように構成される1つ以上の均等化フィルタに印加することを含む、請求項5に記載のコンピュータで実行される方法。
  7. 前記1つ以上のプロセッサが、前記第1のユーザデバイスに知覚可能な低音レスポンス表現を実行させることは、前記第1のユーザデバイスに、前記生成された知覚可能な低音レスポンス表現を前記第1のユーザデバイスに関連付けられたスピーカデバイスによって出力させることを含む、請求項6に記載のコンピュータで実行される方法。
  8. 前記1つ以上のプロセッサが、知覚可能な低音レスポンス表現を生成することは、前記1つ以上のプロセッサが、周波数閾値よりも低い前記第2のオーディオ信号に関連付けられた1つ以上のピークまたはインパルスを検出することを含む、請求項5に記載のコンピュータで実行される方法。
  9. 前記1つ以上のプロセッサが、前記第1のユーザデバイスに知覚可能な低音レスポンス表現を実行させることは、前記1つ以上のプロセッサが、前記第1のユーザデバイスに関連付けられた1つ以上のハプティックアクチュエータの動作を前記生成された知覚可能な低音レスポンス表現に少なくとも部分的に基づいて制御することを含む、請求項8に記載のコンピュータで実行される方法。
  10. 前記第1のオーディオ信号および前記第2のオーディオ信号は、同一のオーディオ信号である、請求項1に記載のコンピュータで実行される方法。
  11. 前記第2の時刻は、前記第1の時刻とは異なる、請求項1に記載のコンピュータで実行される方法。
  12. コンピューティングシステムであって、
    1つ以上のプロセッサと、
    1つ以上のメモリデバイスとを備え、前記1つ以上のメモリデバイスは、前記1つ以上のプロセッサによって実行されると前記1つ以上のプロセッサに動作を行わせるコンピュータ可読命令を格納し、前記動作は、
    第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに前記第1のオーディオ信号を出力させることと、
    前記第1のユーザデバイスによる前記第1のオーディオ信号の前記出力と前記第2のユーザデバイスによる前記第1のオーディオ信号の前記出力との間の再生遅延を決定することと、
    第1の時刻において、前記第2のユーザデバイスに第2のオーディオ信号を出力させることと、
    前記第1のユーザデバイスに前記第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させることとを含み、これにより前記知覚可能な低音レスポンスは、第2の時刻において実行され、前記第2の時刻は、時間的な前記遅延に少なくとも部分的に基づいて決定される、コンピューティングシステム。
  13. 前記第1のユーザデバイスに前記第1のオーディオ信号を出力させることは、前記第2のユーザデバイスに前記第1のオーディオ信号を出力させることと実質的に同時に起こる、請求項12に記載のコンピューティングシステム。
  14. 第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに前記第1のオーディオ信号を出力させることは、前記第1のユーザデバイスに、前記第1のユーザデバイスに関連付けられたスピーカデバイスによって前記第1のオーディオ信号を出力させることと、前記第2のユーザデバイスに、前記第2のユーザデバイスに関連付けられたスピーカデバイスによって前記第1のオーディオ信号を出力させることとを含む、請求項12に記載のコンピューティングシステム。
  15. 再生遅延を決定することは、前記第1のユーザデバイスまたは前記第2のユーザデバイスに関連付けられた入力トランスデューサに少なくとも部分的に基づいて前記再生遅延を決定することを含む、請求項12に記載のコンピューティングシステム。
  16. 前記動作は、前記第2のオーディオ信号に関連付けられた前記知覚可能な低音レスポンス表現を生成することをさらに含む、請求項12に記載のコンピューティングシステム。
  17. 1つ以上のプロセッサによって実行されると前記1つ以上のプロセッサに動作を行わせるコンピュータ可読命令を格納する1つ以上の有形の非一時的コンピュータ可読媒体であって、前記動作は、
    第1のユーザデバイスに第1のオーディオ信号を出力させ、第2のユーザデバイスに前記第1のオーディオ信号を出力させることと、
    前記第1のユーザデバイスによる前記第1のオーディオ信号の前記出力と前記第2のユーザデバイスによる前記第1のオーディオ信号の前記出力との間の再生遅延を決定することと、
    第1の時刻において、前記第2のユーザデバイスに第2のオーディオ信号を出力させることと、
    前記第1のユーザデバイスに、前記第2のオーディオ信号に関連付けられた知覚可能な低音レスポンス表現を実行させることとを含み、これにより前記知覚可能な低音レスポンスは、第2の時刻において実行され、前記第2の時刻は、時間的な前記遅延に少なくとも部分的に基づいて決定される、1つ以上の有形の非一時的コンピュータ可読媒体。
  18. 前記動作は、前記1つ以上のプロセッサが、前記第2のオーディオ信号に関連付けられた前記知覚可能な低音レスポンス表現を生成することをさらに含む、請求項17に記載の1つ以上の有形の非一時的コンピュータ可読媒体。
  19. 知覚可能な低音レスポンス表現を生成することは、前記第2のオーディオ信号を、閾値を超える前記第2のオーディオ信号に関連付けられたオーディオ周波数を除去または減少するように構成される1つ以上の均等化フィルタに印加することを含む、請求項18に記載の1つ以上の有形の非一時的コンピュータ可読媒体。
  20. 前記1つ以上のプロセッサが、知覚可能な低音レスポンス表現を生成することは、前記1つ以上のプロセッサが、周波数閾値よりも低い前記第2のオーディオ信号に関連付けられた1つ以上のピークまたはインパルスを検出することを含む、請求項18に記載の1つ以上の有形の非一時的コンピュータ可読媒体。
JP2019528905A 2016-11-30 2017-09-29 知覚可能な低音レスポンス Active JP6757853B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/364,922 US10104471B2 (en) 2016-11-30 2016-11-30 Tactile bass response
US15/364,922 2016-11-30
PCT/US2017/054437 WO2018102018A1 (en) 2016-11-30 2017-09-29 Tactile bass response

Publications (2)

Publication Number Publication Date
JP2020501433A true JP2020501433A (ja) 2020-01-16
JP6757853B2 JP6757853B2 (ja) 2020-09-23

Family

ID=60043413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019528905A Active JP6757853B2 (ja) 2016-11-30 2017-09-29 知覚可能な低音レスポンス

Country Status (8)

Country Link
US (1) US10104471B2 (ja)
EP (1) EP3549353B1 (ja)
JP (1) JP6757853B2 (ja)
KR (1) KR102180496B1 (ja)
CN (1) CN108124221B (ja)
DE (2) DE102017124621A1 (ja)
GB (1) GB2557411B (ja)
WO (1) WO2018102018A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10455320B2 (en) 2017-08-02 2019-10-22 Body Beats, Llc System, method and apparatus for translating, converting and/or transforming audio energy into haptic and/or visual representation
US10970036B1 (en) 2019-09-24 2021-04-06 Facebook Technologies, Llc Methods and system for controlling tactile content
US10824390B1 (en) 2019-09-24 2020-11-03 Facebook Technologies, Llc Methods and system for adjusting level of tactile content when presenting audio content
CN113220517B (zh) * 2021-05-28 2023-01-10 Oppo广东移动通信有限公司 操作耗时测试系统、信号处理设备及信号处理方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295809B2 (en) * 2002-07-19 2007-11-13 Sony Ericsson Mobile Communications Ab Portable audio playback device with bass enhancement
EP1615464A1 (en) 2004-07-07 2006-01-11 Sony Ericsson Mobile Communications AB Method and device for producing multichannel audio signals
US20080205666A1 (en) 2005-03-15 2008-08-28 Koninkljke Philips Electronics, N.V. Device For Processing Audio Data, A Method Of Processing Audio Data, A Program Element And A Computer-Readable Medium
US20070087686A1 (en) 2005-10-18 2007-04-19 Nokia Corporation Audio playback device and method of its operation
US8000825B2 (en) 2006-04-13 2011-08-16 Immersion Corporation System and method for automatically producing haptic events from a digital audio file
US8743284B2 (en) 2007-10-08 2014-06-03 Motorola Mobility Llc Synchronizing remote audio with fixed video
CN102113351B (zh) 2008-07-28 2013-07-31 皇家飞利浦电子股份有限公司 音频系统及其操作的方法
US9402133B2 (en) 2009-02-12 2016-07-26 Brock Maxwell SEILER Multi-channel audio vibratory entertainment system
US9924251B2 (en) 2010-09-01 2018-03-20 Mor Efrati Transducer holder
WO2012177572A2 (en) 2011-06-24 2012-12-27 Beats Electronics, Llc Optimization method for audio playback systems
US9516406B2 (en) 2011-12-20 2016-12-06 Nokia Technologies Oy Portable device with enhanced bass response
US20140056461A1 (en) 2012-08-21 2014-02-27 Immerz, Inc. Systems and methods for a vibrating input device
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
US9997032B2 (en) * 2013-04-09 2018-06-12 Immersion Corporation Offline haptic conversion system
US9307508B2 (en) * 2013-04-29 2016-04-05 Google Technology Holdings LLC Systems and methods for syncronizing multiple electronic devices
US9519346B2 (en) 2013-05-17 2016-12-13 Immersion Corporation Low-frequency effects haptic conversion system
US9576445B2 (en) 2013-09-06 2017-02-21 Immersion Corp. Systems and methods for generating haptic effects associated with an envelope in audio signals
US9756092B2 (en) * 2013-10-18 2017-09-05 Verizon and Redbox Digital Entertainment Services, LLC Distribution and synchronization of a social media environment
EP2890153B1 (en) * 2013-12-30 2020-02-26 Skullcandy, Inc. Headphones for stereo tactile vibration, and related systems and methods
US8767996B1 (en) * 2014-01-06 2014-07-01 Alpine Electronics of Silicon Valley, Inc. Methods and devices for reproducing audio signals with a haptic apparatus on acoustic headphones
US9613506B2 (en) * 2014-05-30 2017-04-04 Apple Inc. Synchronization of independent output streams
EP3002958B1 (en) 2014-10-01 2017-12-27 Woojer Ltd. Tactile low frequency transducer
US9338391B1 (en) * 2014-11-06 2016-05-10 Echostar Technologies L.L.C. Apparatus, systems and methods for synchronization of multiple headsets
US9891714B2 (en) 2014-12-24 2018-02-13 Immersion Corporation Audio enhanced simulation of high bandwidth haptic effects
EP3328091B1 (en) * 2014-12-31 2020-04-08 Skullcandy, Inc. Methods of generating tactile user feedback utilizing headphone devices and related systems
US9632664B2 (en) * 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10484568B2 (en) * 2016-10-26 2019-11-19 Orcam Technologies Ltd. Providing a social media recommendation based on data captured by a wearable device

Also Published As

Publication number Publication date
EP3549353B1 (en) 2023-03-08
GB201716082D0 (en) 2017-11-15
US20180152786A1 (en) 2018-05-31
US10104471B2 (en) 2018-10-16
GB2557411B (en) 2020-11-25
DE202017106383U1 (de) 2018-03-08
CN108124221B (zh) 2020-09-08
EP3549353A1 (en) 2019-10-09
WO2018102018A1 (en) 2018-06-07
JP6757853B2 (ja) 2020-09-23
KR102180496B1 (ko) 2020-11-18
GB2557411A (en) 2018-06-20
KR20190055226A (ko) 2019-05-22
DE102017124621A1 (de) 2018-05-30
CN108124221A (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
US10469971B2 (en) Augmented performance synchronization
JP6757853B2 (ja) 知覚可能な低音レスポンス
US10347234B2 (en) Selective suppression of audio emitted from an audio source
JP6893937B2 (ja) オーディオシステムイコライジング
US7889872B2 (en) Device and method for integrating sound effect processing and active noise control
WO2015139642A1 (zh) 一种实现蓝牙耳机降噪的方法、装置和系统
JP2016123075A (ja) 高帯域幅の触覚効果の音声増幅シミュレーション
US10922044B2 (en) Wearable audio device capability demonstration
US10506323B2 (en) User customizable headphone system
CN109155802B (zh) 用于产生音频输出的装置
US11966513B2 (en) Haptic output systems
RU2015145733A (ru) Оборудование для записи и воспроизведения звуковых сигналов
WO2017128481A1 (zh) 骨传导耳机的播放控制方法、装置及骨传导耳机设备
CN109524016B (zh) 音频处理方法、装置、电子设备及存储介质
US9847767B2 (en) Electronic device capable of adjusting an equalizer according to physiological condition of hearing and adjustment method thereof
CN115699175A (zh) 具有用户自己的语音记录的可穿戴音频设备
US20190253799A1 (en) Electronic device
US20220122630A1 (en) Real-time augmented hearing platform
US20240029755A1 (en) Intelligent speech or dialogue enhancement
TW202407513A (zh) 音訊和觸覺訊號處理

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200831

R150 Certificate of patent or registration of utility model

Ref document number: 6757853

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250