JP2016105641A - カメラによるオーディオ空間化 - Google Patents

カメラによるオーディオ空間化 Download PDF

Info

Publication number
JP2016105641A
JP2016105641A JP2016019644A JP2016019644A JP2016105641A JP 2016105641 A JP2016105641 A JP 2016105641A JP 2016019644 A JP2016019644 A JP 2016019644A JP 2016019644 A JP2016019644 A JP 2016019644A JP 2016105641 A JP2016105641 A JP 2016105641A
Authority
JP
Japan
Prior art keywords
user
processor
orientation
display
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016019644A
Other languages
English (en)
Other versions
JP2016105641A5 (ja
Inventor
カブーラソス、ニコス
Nikos Kabassis
ダブリュー. チェン、スコット
Scott W Cheng
ダブリュー. チェン、スコット
ウォーレル、デボン
Devon Worrell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016105641A publication Critical patent/JP2016105641A/ja
Publication of JP2016105641A5 publication Critical patent/JP2016105641A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Abstract

【課題】複数のスピーカ出力を電子的に変更し、立体音響を再生する。【解決手段】カメラの入力は、コンピュータにおいて、オーディオの空間化をサポートし、既にサポートしているアプリケーションのオーディオ空間化を向上させるために利用される。コンピュータシステムは、流されるオーディオパケットの相対振幅又は相対レイテンシを変更することで、オーディオの空間化をサポートする。たとえば音響をユーザの左側に方向付けようとするとき、ユーザの左耳に位置しているヘッドセットスピーカに形成されるオーディオチャネルは、他のオーディオチャネルと比較して、いくらか短いレイテンシと、大きな振幅とを有する。【選択図】図1

Description

本発明は、一般的に、立体音響効果を電子的に生じさせる方法に関する。
多くの種類のオーディオデバイスが、複数のスピーカのアレイから、スピーカの出力を電子的に変更したり、その他の技術を用いたりすることで、立体音響を再生しようと試みている。一般的には、人々は、異なる方向からの音響を聞くことを好ましいと思う。本明細書で利用する「立体音響」とは、2を超える数の方向からの音響のこととする。
以下の図面を参照して実施形態をいくつか説明する。
三次元的に音響を受けるユーザの斜視図である。 本発明の一実施形態のハードウェア記述である。 本発明の一実施形態のフローチャートである。 一実施形態におけるシステム記述である。 一実施形態の正面立面図である。
オーディオ空間化は、ユーザが、オーディオを三次元空間で受けることができる機能のことである。これは、ユーザが、音響の方向および距離に関するオーディオ情報を検知することを意味している。
パーソナルコンピュータ上で再生されるオーディオストリームは、生来のステレオか、又は、殆どのパーソナルコンピュータ又はパーソナルコンピュータに接続されているヘッドフォンセットに埋め込まれている2つのスピーカで再生される前に、ダウンミックスされステレオになったマルチチャネルのオーディオシステムであるかのいずれかである。ステレオのオーディオストリームは、生来は、一部のサラウンド音響システムに含まれているオーディオ情報の量を含んでいない。
しかし、特殊なオーディオ空間化技術をこのステレオのオーディオストリームに利用することで、欠けていた三次元の音響コンテンツの一部が得られる。人間の聴覚系は、幾つかの手がかり(cue)(時間の差、振幅の差、スペクトル情報、タイミング分析、および相関分析がほんの一例である)を利用して、音源のローカライゼーション(localization)を行う。例えば、視聴者の右側からの音響は、左耳より少し前に右耳に、しかも少し大きな強度で到達する。さらに、遠い場所からの音響は、振幅が低く、高周波コンテンツがなくなっている場合が多い。このタイプの手がかりを人間の聴覚系が利用すると、空間における音響のローカライゼーションを行うことができる。これは、人間の脳が、右目および左目から得た画像の間の差を分析することで、視覚的な三次元情報を抽出することに似ている。
オーディオ空間化技術は、オーディオストリームを後処理するが、オーディオストリームを生成する音響システムに関するユーザの空間における位置を考慮はしない。たとえばユーザがヘッドフォンを装着している場合などに、スピーカのトランスデューサは、ユーザの頭部の動きに応じて動く。したがって、特定の方向および距離にあるはずの音響も、ユーザの頭部の動きに応じて動くことになる。
一部の実施形態では、プロセッサベースのデバイスにおけるカメラの入力を利用して、オーディオコンテンツの空間化を向上させることもできる。様々なパーソナルコンピュータデバイスを利用することができる(一例を挙げると、ノートブック、タブレット、スマートフォン、ひいてはビデオカメラ自身も利用可能である)。
一部の実施形態では、エンベデッドの常時ONのカメラ(Embedded always - on cameras)を利用することもできる。モバイルプラットフォーム上の既存のエンベデッドカメラは、プラットフォームに対するユーザの現在位置情報をプラットフォームに提供することで、ユーザの三次元オーディオ体験を向上させることができる。
一部の実施形態では、ユーザは、ヘッドフォンから流れるオーディオストリームを聞くことができる。オーディオ空間化技術を、パーソナルコンピュータに埋め込まれている従来のスピーカから流れるオーディオストリームに適用することもできるが、その影響は、ヘッドフォンを利用することで、よりクリアに感じられる。
オーディオストリームは、いつでもパーソナルコンピュータシステム上でアクティブであってよい。これらストリームには、ビデオ再生アプリケーション等のアプリケーションが生成するシステム音響又はオーディオコンテンツが含まれる。オーディオストリームは、5.1又は7.1オーディオの場合、2つのステレオオーディオ又は2を超える数のチャネルからなることがある。2を超える数のチャネルの場合、オーディオチャネルは、2つのチャネルにダウンミックスされることで、2つのヘッドフォンに流すことができるようになる。ステレオシステムがパーソナルコンピュータに接続される場合には、このようなダウンミックスは不要である。この場合には、様々なスピーカを様々な異なるストリームで駆動することができる。
通常、パーソナルコンピュータシステムが生成する音響、および、殆どのアプリケーションが生成するオーディオストリームは、空間系エフェクトを含まないので、パーソナルコンピュータシステムに対するユーザの相対位置は関係しない。ユーザがヘッドフォンを利用しており、システム音響が生成された場合、この音響は、ユーザの頭部がどの方向に向けられていようとも、常に左耳又は右耳の方向から来ることになる。他方で、一部のアプリケーションにおいては、オーディオの空間化をサポートしているが、ユーザの位置がコンピュータの前方の三次元空間のデフォルト位置にあると想定していたり、ユーザが常にコンピュータスクリーンの方向を向いていることを想定したりしているものがある。このデフォルトの位置および向きは、図1のX、Y、Z軸の原点で表され、ユーザの位置は、ユーザの目の間の点の位置として定義されている。
カメラの入力は、コンピュータにおいて、オーディオの空間化をサポートしたり、既にサポートしているアプリケーションのオーディオ空間化を向上させたりするために利用される。コンピュータシステムは、たとえば、流されるオーディオパケットの相対振幅又は相対的レイテンシを変更することで、オーディオの空間化をサポートすることができる。たとえば音響をユーザの左側に方向付けようとするとき、ユーザの左耳に位置しているヘッドセットスピーカに形成されるオーディオチャネルは、他のオーディオチャネルと比較して、いくらか短いレイテンシと、大きな振幅とを有するだろう。しかし、パーソナルコンピュータは、複数の他の技術を利用することでもオーディオのローカライゼーション効果を発揮することができてよい。
一般的には、ある人の頭部の位置および向きは、この人の空間における音響の認知に対して影響する。位置又は向きは、音響の方向および距離の認知に影響を与える。このパラダイムをパーソナルコンピュータデバイスのユーザに転用すると、ユーザの頭部の位置および向きは、パーソナルコンピュータが生成する音響のユーザの認知に影響を与える。たとえば図1に示すコンピュータシステムが、ユーザが自身の頭部を右に向けているときに音響を生成すると、システム音響が空間ローカライゼーションされた場合には、これは、ユーザの左側からのものであるかのように認知されるはずである。
音響を空間化することができるためには、コンピュータは、ユーザの現在の位置および向きを認識しておく必要があるだろう。図1のXYZ軸は、ユーザのデフォルトの位置を示している。図1のX' Y' Z'軸は、ユーザが頭部を(x、y、z)に動かし、ユーザが頭部をaおよびbの角度だけ水平および垂直方向に頭部を回転させた場合に利用される、空間における新たなユーザ位置および向きを示している。ベクトル(x、y、z、a、b)は、空間における新たなユーザ位置および向きを示すために利用することができる。そしてコンピュータは、エンベデッドカメラおよびビデオ分析を利用して位置および向きを判断することで、新たなユーザ位置および向きを特定することができる。
たとえば、ユーザの目の間の点の位置がビデオ分析により判断されると、その点のコンピュータからの距離が容易に導き出される。この距離に基づいて、音響の振幅を、各耳の向きに対して調節することができる。
コンピュータが、空間化をサポートしていないオーディオストリームを流す場合には、カメラの入力は、欠けている三次元情報を提供するために利用することができる。コンピュータの前の空間におけるユーザの位置および向きを、カメラの入力から得ることができる。たとえば、ビデオ再生アプリケーションが、スクリーン「中」の真ん前の一定の距離離れたところから生じた爆発の音響を流そうとしているが、ユーザの位置がコンピュータの左側に少しずれていた場合には、ユーザはこの爆発を少し右側にずれた方向からのものであると認知するだろう。これは、ヘッドフォンに流すオーディオストリームの振幅およびレイテンシを操作することにより行われる。
特定のアプリケーションが空間化されたオーディオを流すとき、これも、同様の方法で、コンピュータのエンベデッドカメラからの情報を利用して後処理することができる。たとえば、アプリケーションが、ユーザの左側に音響を生じさせることを意図しているが、実際のユーザは頭部を右にひねっている場合、この音響は実際には、ユーザの頭部の後側からのように受け取られるようになる。したがってコンピュータは、ユーザの現在の位置および向きの情報を利用して、オーディオストリームを後処理して、音響があたかもユーザの頭部の後ろから来るように生成する。上述した例は、ユーザの向きの極端な変更の例である。多くの実際の生活では、ユーザは、図1に示すデフォルト位置より少し位置又は角度がずれている場合のほうが多く、オーディオストリームに行われる空間化処理も、このような小さい又は些細な位置および向きの変更を反映するようなものにする必要があるだろう。
オーディオデコードおよび後処理は、実際には、プラットフォーム上の複数の異なる位置で実行されてよい。ソフトウェア(たとえばアプリケーション)で行われてもよい。ホスト処理ユニット又はチップセットに埋め込まれているオーディオデジタル信号プロセッサ(DSP)により行うことができる。さらに、中央処理装置内で別個の又は統合されたグラフィックエンジンのいずれかを含むグラフィックエンジン上で行うこともできる。統合されたDSPでオーディオ処理を行う例を説明するが、ここで説明する概念は、全てのケースに応用可能である。
図2に示すオーディオデジタル信号プロセッサ12は、オーディオコーデック16に直接的又は間接的に接続されていてよく、オーディオコーデック16は、パーソナルコンピュータのオーディオ出力をヘッドフォン又はスピーカ18へ送出する。アプリケーション又はオペレーティングシステムは視聴(audio/visual)ストリームを生成するが、これらはさらなる処理のためにオーディオデジタル信号プロセッサ12に渡され、ここから、オーディオコーデック16およびヘッドセット又はスピーカ18へと渡される。
オーディオ空間系エフェクトを得るために、オーディオDSPドライバは、エンベデッドカメラドライバと通信して、ここからユーザの現在の位置および頭部の向きに関する情報を得る。この情報を利用して、DSP12は、生成されているオーディオストリームに対して適切な後処理を行い、所望の空間系エフェクトを与える。たとえばDSPが2つのダウンミックスされる可能性のあるオーディオストリームを生成している場合、もしこれらがユーザの現在の位置に依存したユーザのヘッドセット向けのものであれば、これら2つのストリームに対して適切な遅延又は振幅の操作を行って空間化を行うことができる。
DSPドライバは、カメラドライバとハンドシェークを行うことができ(標準的なオペレーティングシステムインタフェースを介してであってよい)、現在のユーザ位置に関する入力を受信することができる。このハンドシェークは、数多くの異なる方法で行われてよい。たとえば、プログラム可能な数ミリ秒ごと(every so many programmable milliseconds)、という周期的なシステムの割り込みを利用して行うことができる。
図3は、本発明の一実施形態の構造のフロー図を示す。ハードウェア、ソフトウェア、および/又は、ファームウェアに実装することができる。ソフトウェアおよびファームウェアの実施形態では、磁気、光、又は、半導体ストレージ等の1以上のコンピュータ可読媒体に格納されているコンピュータ実行された命令で実装されてよい。
一実施形態では、DSPドライバは、カメラと、数ミリ秒ごとの周期的なシステムの割り込みによってハンドシェークを実行する。ドライバは、カメラドライバから、現在のユーザ位置および向きの情報を受信する。実際、オーディオストリームがDSPにより現在レンダーリング中である場合、DSPは、現在のユーザ位置を利用してこれらストリームを後処理して、空間系エフェクトを生じさせる。
したがって特にブロック20で、ドライバは、カメラから新たなユーザの位置を読み取る。そしてダイアモンド22でチェックを行い、現在レンダーリング中のアクティブなオーディオストリームがあるかを判断する。判断結果が肯定的である場合には、DSPは、ブロック24で、ユーザの位置に基づいてオーディオパケットを処理して、空間系エフェクトを生じさせる。次に、ダイアモンド26でチェックを行い、ユーザ位置が最後に読み出されてから経過した時間が、プログラム可能な時間間隔より大きいかを判断する。次に、フローはブロック20に戻り繰り返すか、さもなくば、ダイアモンド22に戻る。
他の実施形態では、マルチチャネルのホーム娯楽システムを利用することもできる。テレビ又はビデオシステムが、現在のユーザ位置および向きを追跡できるエンベデッドカメラを含んでいるという前提で、同じ処理を行って、サラウンド音響オーディオを空間化することができる。ホーム娯楽システムのオーディオの品質は、サラウンドスピーカに対するユーザの実際の位置に依存する。オーディオを空間化することで、カメラの入力を利用して、各オーディオチャネルを適切に後処理して、ユーザの実際の位置および向きにおいて、各スピーカから発せられる音響の品質を最適化することができる。
このようにして、カメラの入力は、ユーザの位置および向きを取り入れて、ホームコンピュータシステムおよびホームシアターシステム両方におけるオーディオの空間化を可能としたり、向上させたりすることができる。
図4は、システム700の一実施形態を示す。一部の実施形態では、システム700はメディアシステムであるが、システム700は、このコンテキストに限定はされない。たとえばシステム700は、パーソナルコンピュータ(PC)、ラップトップコンピュータ、ウルトララップトップコンピュータ、タブレット、タッチパッド、可搬型コンピュータ、ハンドヘルドコンピュータ、手のひらサイズのコンピュータ、情報携帯端末(PDA)、携帯電話器、携帯電話器/PDAの組み合わせ、テレビ、スマートデバイス(たとえばスマートフォン、スマートタブレット又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス等に組み込み可能である。
一部の実施形態では、システム700は、ディスプレイ720に連結されたプラットフォーム702を含む。プラットフォーム702は、コンテンツサービスデバイス730(一又は複数)又はコンテンツ配信デバイス740(一又は複数)又はその他の類似したコンテンツソース等のコンテンツをコンテンツデバイスから受信してよい。1以上のナビゲーション特徴部を含むナビゲーションコントローラ750が、たとえばプラットフォーム702および/又はディスプレイ720と交信するために利用されてよい。これらコンポーネントのそれぞれは後に詳述される。
一部の実施形態では、プラットフォーム702は、チップセット705、プロセッサ710、メモリ712、ストレージ714、グラフィックサブシステム715、アプリケーション716、グローバルポジショニングシステム(GPS)721、カメラ723、および/又は、ラジオ718の任意の組み合わせを含んでよい。チップセット705は、プロセッサ710、メモリ712、ストレージ714、グラフィックサブシステム715、アプリケーション716、および/又は、ラジオ718の間に交信を行わせることができてよい。たとえば、チップセット705は、ストレージ714と交信することのできるストレージアダプタ(不図示)を含んでよい。
加えて、プラットフォーム702は、オペレーティングシステム770を含んでよい。プロセッサ772へのインタフェースは、オペレーティングシステムとプロセッサ710とをインタフェースしてよい。
ファームウェア790は、ブートシーケンス等の機能を実装するために提供されてよい。ファームウェアをプラットフォーム702外から更新するための更新モジュールも提供されてよい。例として更新モジュールは、更新の試みが正当なものかの判断、および、更新が必要となる時期の判断を促すために、ファームウェア790の最後の更新の特定を行うためのコードを含んでよい。
一部の実施形態では、プラットフォーム702は、外部電源により給電されてよい。一部の場合においては、プラットフォーム702は、さらに、実施形態によっては、外部電源に適合されない電源として動作する、又は、実施形態によっては、電池駆動電力又は外部電源電力の切り替えを可能とする電源として動作する内部電池780を含んでよい。
図3に示すシーケンスは、数例を挙げると、ストレージ714内、又は、プロセッサ710又はグラフィックサブシステム715内のメモリに、これらを含めることで、ソフトウェアおよびファームウェアの実施形態に実装することができる。一実施形態では、グラフィックサブシステム715は、グラフィック処理ユニットを含んでよく、プロセッサ710は、中央処理装置であってよい。
プロセッサ710は、CISC(Complex Instruction Set Computer)又はRISC(Reduced Instruction Set Computer)プロセッサ、x86命令セットに準拠したプロセッサ、マルチコア、又は任意の他のマイクロプロセッサ又は中央処理装置(CPU)として実装されてよい。一部の実施形態では、プロセッサ710は、デュアルコアプロセッサ、デュアルコアモバイルプロセッサ等を含んでよい。
メモリ712は、これらに限定はされないがRAM、DRAM、又はSRAM等を含む揮発性メモリとして実装されてよい。
ストレージ714は、これらに限定はされないが磁気ディスクドライブ、光ディスクドライブ、テープドライブ、内部記憶デバイス、アタッチストレージデバイス(attached storage device)、フラッシュメモリ、バッテリーバックアップSDRAM(同期DRAM)および/又はネットワークアクセス可能記憶デバイス等を含む不揮発性記憶デバイスとして実装されてよい。一部の実施形態では、ストレージ714は、複数のハードドライブが含まれると、価値あるデジタルメディアのための、記憶性能が向上した保護を提供する技術を含むことができる。
グラフィックサブシステム715は、静止画又は動画等の画像を表示するために処理することができる。グラフィックサブシステム715は、例として、グラフィック処理ユニット(GPU)又は視覚処理ユニット(VPU)であってよい。アナログ又はデジタルインタフェースを利用して、グラフィックサブシステム715およびディスプレイ720を通信可能なように連結することができる。たとえばインタフェースは、高精細マルチメディアインタフェース、DisplayPort、無線HDMI(登録商標)、および/又は、無線HDに準拠した技術のいずれであってもよい。グラフィックサブシステム715は、プロセッサ710又はチップセット705に統合することもできる。グラフィックサブシステム715は、チップセット705に通信可能に連結されている独立型カードであってもよい。
ここで説明するグラフィックおよび/又はビデオ処理技術は、様々なハードウェアアーキテクチャに実装することができる。たとえばグラフィックおよび/又はビデオ機能は、1つのチップセットに統合することもできる。この代わりに、別個のグラフィックおよび/又はビデオプロセッサを利用することもできる。また別の実施形態として、グラフィックおよび/又はビデオ機能を、汎用プロセッサ(マルチコアプロセッサを含む)で実装してもよい。また別の実施形態では、これら機能を家庭用電子機器に実装することもできる。
ラジオ718は、様々な適切な無線通信技術を利用して信号を送受信することができる1以上のラジオを含んでよい。これら技術は、1以上の無線ネットワークにおける通信を含んでよい。無線ネットワークの例を挙げると(これらに限定はされない)、無線ローカルエリアネットワーク(WLAN)、無線パーソナルエリアネットワーク(WPAN)、無線メトロポリタンエリアネットワーク(WMAN)、セルラーネットワーク、および衛星ネットワークが含まれる。これらネットワークで通信を行うために、無線718は任意のバージョンの1以上の適用可能な規格に従って動作してよい。
一部の実施形態では、ディスプレイ720は、任意のテレビ型モニタ又はディスプレイを含んでよい。ディスプレイ720は、たとえば、コンピュータディスプレイスクリーン、タッチスクリーンディスプレイ、ビデオモニタ、テレビに類したデバイス、および/又はテレビを含んでよい。ディスプレイ720は、デジタルおよび/又はアナログであってよい。一部の実施形態では、ディスプレイ720は、ホログラフィックディスプレイであってもよい。さらに、ディスプレイ720は、視覚投射を受けることのできる透明な表面であってもよい。これら投射によって、様々な形態の情報、画像、および/又はオブジェクトが伝達されてよい。たとえば、投射が、移動型の拡張現実(MAR:mobile augmented reality)用途の視覚オーバレイであってもよい。1以上のソフトウェアアプリケーション716に制御されることで、プラットフォーム702は、ユーザインタフェース722をディスプレイ720に表示することができる。
一部の実施形態では、コンテンツサービスデバイス730(1又は複数)は、任意の国の事業、国際事業、および/又は、独立機関の事業によりホストされることで、インターネット等を介してプラットフォーム702にアクセス可能であってよい。コンテンツサービスデバイス730は、プラットフォーム702および/又はディスプレイ720に連結されていてよい。プラットフォーム702および/又はコンテンツサービスデバイス730は、ネットワーク760に連結されて、メディア情報をネットワーク760との間でやりとり(たとえば送信および/又は受信)することができる。コンテンツ配信デバイス740も、プラットフォーム702および/又はディスプレイ720に連結されていてよい。
一部の実施形態では、コンテンツサービスデバイス730は、ケーブルテレビボックス、パーソナルコンピュータ、ネットワーク、電話、インターネット利用可能デバイス、又は、デジタル情報および/又はコンテンツを配信可能な機器、および、任意のその他の、コンテンツプロバイダとプラットフォーム702および/又はディスプレイ720との間でネットワーク760を介して、一方向又は双方向のコンテンツの通信が可能な類似したデバイスを含んでよい。コンテンツは、システム700およびコンテンツプロバイダとの間でネットワーク760を介して、一方向および/又は双方向に伝達されてよいことがわかるだろう。コンテンツの例には、たとえばビデオ、音楽、医療情報およびゲーム情報等が含まれてよい。
コンテンツサービスデバイス730は、ケーブルテレビ番組等のコンテンツ(メディア情報、デジタル情報、および/又はその他のコンテンツを含む)を受信する。コンテンツプロバイダの例には、任意のケーブル、衛星テレビ、又はラジオ又はインターネットコンテンツプロバイダが含まれてよい。挙げた例は、本発明の実施形態を限定する意図はない。
一部の実施形態では、プラットフォーム702が、制御信号を1以上のナビゲーション特徴部分を有するナビゲーションコントローラ750から受信してよい。コントローラ750のナビゲーション特徴部分は、たとえば、ユーザインタフェース722と交信するために利用されてよい。一部の実施形態では、ナビゲーションコントローラ750が、ユーザに空間(たとえば連続した、多次元の)データをコンピュータに入力させるコンピュータハードウェアコンポーネント(特にヒューマンインタフェースデバイス)であってよいポインティングデバイスであってよい。多くのシステム(たとえば、グラフィックユーザインタフェース(GUI)、テレビ、およびモニタ)によって、ユーザは、身体ジェスチャーを利用してデータをコンピュータ又はテレビに制御提供することができるようになる。
コントローラ750のナビゲーション特徴部分の動きは、ポインタ、カーソル、フォーカスリング、その他のディスプレイ(たとえばディスプレイ720)に表示される視覚的インジケータ上に反映(echo)されてよい。たとえば、ソフトウェアアプリケーション716の制御の下で、ナビゲーションコントローラ750に位置しているナビゲーション特徴部分は、たとえば、ユーザインタフェース722に表示される視覚上のナビゲーション特徴部分にマッピングされてよい。一部の実施形態では、コントローラ750は、別個のコンポーネントではなく、プラットフォーム702および/又はディスプレイ720に統合されてよい。しかし実施形態は、ここで記載するエレンメント又はコンテキストに限定はされない。
一部の実施形態では、ドライバ(不図示)が、ユーザがプラットフォーム702を即座にオン/オフできるような技術を含んでよい(たとえば、イネーブルされていれば、初期起動の後にテレビを、ボタンを触ればオフにできるようなもの)。プログラム論理によって、プラットフォーム702は、プラットフォームが「オフ」のときに、コンテンツをメディアアダプタその他のコンテンツサービスデバイス730又はコンテンツ配信デバイス740にストリーミングすることができる。加えて、チップセット705は、たとえば、5.1サラウンド音響オーディオおよび/又は7.1サラウンド音響オーディオ用のハードウェアおよび/又はソフトウェアサポートを含んでよい。ドライバは、統合されているグラフィックプラットフォームのためのグラフィックドライバを含んでよい。実施形態によっては、グラフィックドライバは、PCI(peripheral component interconnect)Expressグラフィックカードを含んでよい。
様々な実施形態では、システム700内に示されているコンポーネントのうちの任意の1以上を統合することもできる。たとえばプラットフォーム702とコンテンツサービスデバイス730とが統合されていてもよいし、プラットフォーム702とコンテンツ配信デバイス740とが統合されていてもよいし、又は、プラットフォーム702、コンテンツサービスデバイス730、および、コンテンツ配信デバイス740が統合されていてもよい。様々な実施形態では、プラットフォーム702とディスプレイ720とが1つの統合されたユニットであってよい。ディスプレイ720とコンテンツサービスデバイス730とが統合されていてもよいし、又は、ディスプレイ720とコンテンツ配信デバイス740とが統合されていてもよい。これらの例は本発明を限定する意図を持たない。
様々な実施形態では、システム700は、無線システム、有線システム、又はこれらの組み合わせとして実装することができる。無線システムとして実装される場合、システム700は、無線共有媒体で通信するために適したインタフェースおよびコンポーネント(1以上のアンテナ、トランスミッタ、レシーバ、トランシーバ、増幅器、フィルタ、制御論理等)を含んでよい。有線共有媒体の一例には、無線スペクトルの一部(たとえばRFスペクトル等)が含まれてよい。有線システムとして実装される場合、システム700は、有線通信媒体で通信するために適したインタフェースおよびコンポーネント(たとえば入出力(I/O)アダプタ、I/Oアダプタを対応する有線通信媒体に接続するための物理コネクタ、ネットワークインタフェースカード(NIC)、ディスクコントローラ、ビデオコントローラ、オーディオコントローラ等)を含んでよい。有線通信媒体の例には、ワイヤ、ケーブル、金属鉛(metal lead)、プリント回路基板(PCB)、バックプレーン、スイッチ構成、半導体材料、ツイストペアワイヤ、同軸ケーブル、光ファイバ等が含まれる。
プラットフォーム702は、情報を運ぶための1以上の論理チャネル又は物理チャネルを構築してよい。情報は、メディア情報および制御情報を含んでよい。メディア情報は、ユーザのためのコンテンツを表す任意のデータのことであってよい。コンテンツの例には、たとえば、音声会話からのデータ、ビデオ会議、ストリーミングビデオ、電子メール(「Eメール」)メッセージ、音声メールメッセージ、英数字、グラフィック、画像、ビデオ、テキスト等が含まれてよい。音声会話からのデータとは、たとえば、音声情報、沈黙期間、背景の雑音、快適雑音、トーン等であってよい。制御情報とは、コマンド、命令、又は自動化されたシステム用の制御語を表すいずれかのデータのことであってよい。たとえば制御情報は、システム経由でメディア情報をルーティングするため、又は、メディア情報を予め定められた方法で処理するようノードに指示するために利用することができてよい。しかし実施形態は図4に示す、又はこれを参考に説明したエレメント又はコンテキストに限定はされない。
上述したように、システム700は、様々な物理的スタイル又はフォームファクタで具現化することができる。図4は、システム700を具現化することができる小型のフォームファクタのデバイス800の実施形態を示す。一部の実施形態では、たとえば、デバイス800を、無線機能をもつモバイルコンピューティングデバイスとして実装することができる。モバイルコンピューティングデバイスは、処理システムおよび移動電源又は移動電力供給装置(たとえば1以上の電池等)を持つ任意のデバイスのことであってよい。
上述したように、モバイルコンピューティングデバイスの例には、パーソナルコンピュータ(PC)、ウルトララップトップコンピュータ、タブレット、タッチパッド、可搬型コンピュータ、手持ち型コンピュータ、手のひらサイズのコンピュータ、情報携帯端末(PDA)、携帯電話器、携帯電話器/PDAの組み合わせ、テレビ、スマートデバイス(たとえばスマートフォン、スマートタブレット又はスマートテレビ)、モバイルインターネットデバイス(MID)、メッセージングデバイス、データ通信デバイス等が含まれてよい。
モバイルコンピューティングデバイスの例には、さらに、人が装着できるよう構成されたコンピュータ(たとえば手首用コンピュータ、指用コンピュータ、リング状コンピュータ、メガネコンピュータ、ベルトクリップコンピュータ、腕用コンピュータ、靴型コンピュータ、衣服コンピュータ、その他の装着可能なコンピュータ)が含まれてよい。一部の実施形態では、たとえば、モバイルコンピューティングデバイスが、コンピュータアプリケーションの実行、音声通信および/又はデータ通信を行うことのできるスマートフォンとして実装されてよい。一部の実装例は、例としてスマートフォンとして実装されるモバイルコンピューティングデバイスで説明されているが、他の実施形態は、他の無線モバイルコンピューティングデバイスを利用して実装されてもよい。実施形態はこのコンテキストに限定はされない。
図5に示すように、デバイス800は、筐体802、ディスプレイ804、入出力(I/O)デバイス806、および、アンテナ808を含んでよい。デバイス800はさらに、ナビゲーション特徴部分812を含んでよい。ディスプレイ804は、モバイルコンピューティングデバイスに適した情報を表示するための任意の適切なディスプレイユニットを含んでよい。I/Oデバイス806は、モバイルコンピューティングデバイスに情報を入力するための任意の適切なI/Oデバイスを含んでよい。I/Oデバイス806の例には、英数字キーボード、数字キーパッド、タッチパッド、入力キー、ボタン、スイッチ、ロッカースイッチ、マイクロフォン、スピーカ、音声認識デバイスおよびソフトウェア等が含まれてよい。情報は、マイクロフォン経由でデバイス800に入力されてもよい。これら情報は、音声認識デバイスによってデジタル化されてもよい。実施形態はこのコンテキストに限定はされない。
様々な実施形態は、ハードウェアエレメント、ソフトウェアエレメント、又はこれらの組み合わせを利用して実装可能である。ハードウェアエレメントの例には、プロセッサ、マイクロプロセッサ、回路、回路エレメント(たとえばトランジスタ、抵抗、コンデンサ、インダクタ等)、集積回路、特定用途向け集積回路(ASIC)、プログラム可能論理デバイス(PLD)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、論理ゲート、レジスタ、半導体素子、チップ、マイクロチップ、チップセット等が含まれてよい。ソフトウェアの例には、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、マシンプログラム、オペレーティングシステムソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、機能、方法、プロシージャ、ソフトウェアインタフェース、アプリケーションプログラムインタフェース(API)、命令セット、コンピューティングコード、コンピュータコード、コードセグメント、コンピュータコードセグメント、ワード、値、シンボル、又はこれらの任意の組み合わせが含まれてよい。実施形態をハードウェアエレメントおよび/又はソフトウェアエレメントで実装するかの判断は、任意の数の要素(たとえば所望の計算レート、電力レベル、耐熱性、処理サイクル予算、入力データレート、出力データレート、メモリリソース、データバス速度その他の設計又はパフォーマンス上の制約)に応じて変化させてよい。
少なくとも1つの実施形態の1以上の態様は、マシン可読媒体に格納されており、プロセッサ内の様々な論理を表す代表的な命令で実装されてよく、これら命令は、マシンに読み取られると、マシンに、ここに記載した技術を実行するための論理を生成(fabricate)させる。これらの代表例は、「IPコア」として知られており、有形のマシン可読媒体に格納されており、様々な消費者又は製造施設に供給されて、実際に論理又はプロセッサを製造する製造マシンにロードされてよい。
様々な実施形態が、ハードウェアエレメント、ソフトウェアエレメント、又はこれらの組み合わせを利用して実装可能である。ハードウェアエレメントの例には、プロセッサ、マイクロプロセッサ、回路、回路エレメント(たとえばトランジスタ、抵抗、コンデンサ、インダクタ等)、集積回路、特定用途向け集積回路(ASIC)、プログラム可能論理デバイス(PLD)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、論理ゲート、レジスタ、半導体素子、チップ、マイクロチップ、チップセット等が含まれてよい。ソフトウェアの例には、ソフトウェアコンポーネント、プログラム、アプリケーション、コンピュータプログラム、アプリケーションプログラム、システムプログラム、マシンプログラム、オペレーティングシステムソフトウェア、ミドルウェア、ファームウェア、ソフトウェアモジュール、ルーチン、サブルーチン、機能、方法、プロシージャ、ソフトウェアインタフェース、アプリケーションプログラムインタフェース(API)、命令セット、コンピューティングコード、コンピュータコード、コードセグメント、コンピュータコードセグメント、ワード、値、シンボル、又はこれらの任意の組み合わせが含まれてよい。実施形態をハードウェアエレメントおよび/又はソフトウェアエレメントで実装するかの判断は、任意の数の要素(たとえば所望の計算レート、電力レベル、耐熱性、処理サイクル予算、入力データレート、出力データレート、メモリリソース、データバス速度その他の設計又はパフォーマンス上の制約)に応じて変化させてよい。
少なくとも1つの実施形態の1以上の態様は、マシン可読媒体に格納されており、プロセッサ内の様々な論理を表す代表的な命令で実装されてよく、これら命令は、マシンに読み取られると、マシンに、ここに記載した技術を実行するための論理を生成(fabricate)させる。これらの代表例は、「IPコア」として知られており、有形のマシン可読媒体に格納されており、様々な消費者又は製造施設に供給されて、実際に論理又はプロセッサを製造する製造マシンにロードされてよい。
ここで説明したグラフィック処理技術は、様々なハードウェアアーキテクチャに実装可能である。たとえばグラフィック機能はチップセット内に統合してよい。この代わりに、別個のグラフィックプロセッサを利用してもよい。また別の実施形態では、グラフィック機能を汎用プロセッサ(マルチコアプロセッサを含む)により実装してもよい。
本明細書全体において、「一実施形態」又は「1つの実施形態」という言い回しは、その実施形態で記載される特定の特徴、構造、又は特性が、本発明の少なくとも1つの実施形態に含まれていることを示す。したがって「一実施形態」又は「1つの実施形態」という言い回しが本明細書の随所にみられても、これらは必ずしも全てが同じ実施形態のことを意味しているわけではない。さらに、特定の特徴、構造、又は特性は、それらが述べられた具体的な実施形態以外の適切な形態で実施することもでき、本願の請求項の範囲には、これらすべての形態が含まれることとする。
本発明は、限られた数の実施形態に関しての説明を行ったが、当業者であれば、数多くの変形例および変更例を想到するであろう。添付請求項は、これらすべての変形例および変更例を、本発明の真の精神および範囲に含まれるものとして含んでいることが意図されている。

Claims (17)

  1. ビデオ分析を利用して、プロセッサベースのシステムに対するユーザの頭部の位置および向きを判断する段階と、
    前記位置および前記向きに基づいて、前記プロセッサベースのシステムがヘッドホンに提供する音響を、前記プロセッサベースのシステムが備えるディスプレイからの前記ユーザの距離、及び、前記ディスプレイに対する前記ユーザの頭部の向きに応じた立体音響効果を生じさせるよう調節する段階と、
    を備え、
    前記調節する段階は、
    前記ディスプレイからの前記ユーザの距離、及び、前記ディスプレイに対する前記ユーザの頭部の向きに応じて、前記プロセッサベースのシステムが生成したオーディオストリームのレイテンシを調節する段階を有する方法。
  2. 前記ビデオ分析に基づいて前記プロセッサベースのシステムが生成したオーディオストリームの振幅を調節する段階を備える、請求項1に記載の方法。
  3. 前記立体音響効果を生じさせるためにデジタル信号プロセッサを利用する段階を備える、請求項1または2に記載の方法。
  4. 2つのオーディオストリームのそれぞれに適切な遅延又は振幅の操作を行うことで、前記ユーザの頭部の位置および向きに基づき、前記2つのオーディオストリームを空間化する段階を備える、請求項1から請求項3のいずれか一項に記載の方法。
  5. 前記ユーザの頭部の位置を周期的に判断する段階を備える、請求項1から請求項4のいずれか一項に記載の方法。
  6. 前記ユーザの頭部の向きを周期的に判断する段階を備える、請求項1から請求項5のいずれか一項に記載の方法。
  7. コンピュータにより実行されると、
    ビデオ分析を利用して、プロセッサベースのシステムに対するユーザの頭部の位置および向きを判断する手順と、
    前記位置および前記向きに基づいて、前記プロセッサベースのシステムがヘッドホンに提供する音響を、前記システムが備えるディスプレイからの前記ユーザの距離、及び、前記ディスプレイに対する前記ユーザの頭部の向きに応じた立体音響効果を生じさせるよう調節する手順と、
    を実行させ、
    前記調節する手順は、
    前記ディスプレイからの前記ユーザの距離、及び、前記ディスプレイに対する前記ユーザの頭部の向きに応じて、前記プロセッサベースのシステムが生成したオーディオストリームのレイテンシを調節する手順を有するプログラム。
  8. 前記ビデオ分析に基づいて前記プロセッサベースのシステムが生成したオーディオストリームの振幅を調節する手順を実行させる、請求項7に記載のプログラム。
  9. 前記立体音響効果を生じさせるためにデジタル信号プロセッサを利用する手順を実行させる、請求項7または8に記載のプログラム。
  10. 2つのオーディオストリームのそれぞれに適切な遅延又は振幅の操作を行うことで、前記ユーザの頭部の位置および向きに基づき、前記2つのオーディオストリームのそれぞれを空間化する手順を実行させる、請求項7から請求項9のいずれか一項に記載のプログラム。
  11. 前記ユーザの頭部の位置を周期的に判断する手順を実行させる、請求項7から請求項10のいずれか一項に記載のプログラム。
  12. 前記ユーザの頭部の向きを周期的に判断する手順を実行させる、請求項7から請求項11のいずれか一項に記載のプログラム。
  13. ビデオ分析を利用してユーザの位置および向きを判断するデバイスと、
    前記位置および前記向きに基づいてヘッドホンに提供する音響を調節するプロセッサと、
    前記プロセッサに連結されたオーディオコーデックと、
    ディスプレイと
    を備え、
    前記プロセッサは、
    前記ディスプレイからの前記ユーザの距離、および前記ディスプレイに対する前記ユーザの頭部の向きに応じて前記音響を調節するとともに、
    前記ディスプレイからの前記ユーザの距離、及び、前記ディスプレイに対する前記ユーザの頭部の向きに応じて、プロセッサベースのシステムが生成したオーディオストリームのレイテンシを調節する装置。
  14. 前記プロセッサは、デジタル信号プロセッサである、請求項13に記載の装置。
  15. 前記デバイスが前記プロセッサを含む、請求項13または請求項14に記載の装置。
  16. 前記デバイスはカメラを含む、請求項13から請求項15のいずれか一項に記載の装置。
  17. 前記プロセッサは、前記ユーザの頭部の向きを判断する、請求項13から請求項16のいずれか一項に記載の装置。
JP2016019644A 2012-09-27 2016-02-04 カメラによるオーディオ空間化 Pending JP2016105641A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/628,464 US9596555B2 (en) 2012-09-27 2012-09-27 Camera driven audio spatialization
US13/628,464 2012-09-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013192190A Division JP5882964B2 (ja) 2012-09-27 2013-09-17 カメラによるオーディオ空間化

Publications (2)

Publication Number Publication Date
JP2016105641A true JP2016105641A (ja) 2016-06-09
JP2016105641A5 JP2016105641A5 (ja) 2016-11-17

Family

ID=47829855

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013192190A Active JP5882964B2 (ja) 2012-09-27 2013-09-17 カメラによるオーディオ空間化
JP2016019644A Pending JP2016105641A (ja) 2012-09-27 2016-02-04 カメラによるオーディオ空間化

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013192190A Active JP5882964B2 (ja) 2012-09-27 2013-09-17 カメラによるオーディオ空間化

Country Status (6)

Country Link
US (5) US9596555B2 (ja)
EP (1) EP2713631A3 (ja)
JP (2) JP5882964B2 (ja)
KR (1) KR101614790B1 (ja)
CN (2) CN106412772B (ja)
TW (1) TWI544813B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110536665A (zh) * 2017-04-19 2019-12-03 微软技术许可有限责任公司 使用虚拟回声定位来仿真空间感知

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI451574B (zh) * 2011-10-06 2014-09-01 Richtek Technology Corp 高壓元件及其製造方法
US9596555B2 (en) 2012-09-27 2017-03-14 Intel Corporation Camera driven audio spatialization
US9892743B2 (en) * 2012-12-27 2018-02-13 Avaya Inc. Security surveillance via three-dimensional audio space presentation
US10203839B2 (en) 2012-12-27 2019-02-12 Avaya Inc. Three-dimensional generalized space
US9591426B2 (en) * 2013-11-22 2017-03-07 Voyetra Turtle Beach, Inc. Method and apparatus for an ultrasonic emitter system floor audio unit
CN104952456A (zh) * 2014-03-24 2015-09-30 联想(北京)有限公司 一种语音处理方法以及一种电子设备
US10469947B2 (en) * 2014-10-07 2019-11-05 Nokia Technologies Oy Method and apparatus for rendering an audio source having a modified virtual position
CN106034212B (zh) * 2015-03-10 2019-02-26 深圳富泰宏精密工业有限公司 投影装置、控制装置及穿戴式投影系统
CN104967779A (zh) * 2015-06-16 2015-10-07 中国科学院西安光学精密机械研究所 空间相机时序与视频处理电路及实现方法
CN105183421B (zh) * 2015-08-11 2018-09-28 中山大学 一种虚拟现实三维音效的实现方法及系统
US10979843B2 (en) 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
CN106162206A (zh) * 2016-08-03 2016-11-23 北京疯景科技有限公司 全景录制、播放方法及装置
JP2018101452A (ja) * 2016-12-20 2018-06-28 カシオ計算機株式会社 出力制御装置、コンテンツ記憶装置、出力制御方法、コンテンツ記憶方法、プログラム及びデータ構造
US9858943B1 (en) 2017-05-09 2018-01-02 Sony Corporation Accessibility for the hearing impaired using measurement and object based audio
US10650702B2 (en) 2017-07-10 2020-05-12 Sony Corporation Modifying display region for people with loss of peripheral vision
US10805676B2 (en) 2017-07-10 2020-10-13 Sony Corporation Modifying display region for people with macular degeneration
US10845954B2 (en) 2017-07-11 2020-11-24 Sony Corporation Presenting audio video display options as list or matrix
US10303427B2 (en) 2017-07-11 2019-05-28 Sony Corporation Moving audio from center speaker to peripheral speaker of display device for macular degeneration accessibility
US10051331B1 (en) 2017-07-11 2018-08-14 Sony Corporation Quick accessibility profiles
CN107632704B (zh) * 2017-09-01 2020-05-15 广州励丰文化科技股份有限公司 一种基于光学定位的混合现实音频控制方法及服务设备
CN113273224A (zh) * 2019-01-11 2021-08-17 索尼集团公司 条形音箱、音频信号处理方法和程序
KR102215543B1 (ko) * 2019-02-26 2021-02-15 주식회사 큐버 Uhd 방송을 위한 어레이 스피커와 어레이 마이크 기반의 ai 음성비서 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10230899A (ja) * 1997-02-24 1998-09-02 Motoya Takeyama 航空宇宙飛行機のマンマシンインターフェース
JPH11262096A (ja) * 1998-03-09 1999-09-24 Fuji Xerox Co Ltd 記録再生装置
US20060045294A1 (en) * 2004-09-01 2006-03-02 Smyth Stephen M Personalized headphone virtualization
US20070025555A1 (en) * 2005-07-28 2007-02-01 Fujitsu Limited Method and apparatus for processing information, and computer product
US20110316967A1 (en) * 2010-06-29 2011-12-29 Walter Etter Facilitating communications using a portable communication device and directed sound output
US20120093320A1 (en) * 2010-10-13 2012-04-19 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2964514B2 (ja) * 1990-01-19 1999-10-18 ソニー株式会社 音響信号再生装置
JP3152818B2 (ja) 1992-10-13 2001-04-03 松下電器産業株式会社 音環境疑似体験装置及び音環境解析方法
DE69327501D1 (de) 1992-10-13 2000-02-10 Matsushita Electric Ind Co Ltd Schallumgebungsimulator und Verfahren zur Schallfeldanalyse
US8189825B2 (en) * 1994-05-09 2012-05-29 Breed David S Sound management techniques for vehicles
JP3526680B2 (ja) 1995-10-27 2004-05-17 株式会社ケンウッド ディレイタイム設定装置
AU1527197A (en) * 1996-01-04 1997-08-01 Virtual Listening Systems, Inc. Method and device for processing a multi-channel signal for use with a headphone
GB2351425A (en) * 1999-01-20 2000-12-27 Canon Kk Video conferencing apparatus
JP4355899B2 (ja) 2003-05-15 2009-11-04 トヨタ自動車株式会社 車両デバイス制御装置
GB0415625D0 (en) 2004-07-13 2004-08-18 1 Ltd Miniature surround-sound loudspeaker
KR100739798B1 (ko) 2005-12-22 2007-07-13 삼성전자주식회사 청취 위치를 고려한 2채널 입체음향 재생 방법 및 장치
CN101529930B (zh) * 2006-10-19 2011-11-30 松下电器产业株式会社 声像定位装置、声像定位系统、声像定位方法、程序及集成电路
US8401210B2 (en) 2006-12-05 2013-03-19 Apple Inc. System and method for dynamic control of audio playback based on the position of a listener
JP4315211B2 (ja) * 2007-05-01 2009-08-19 ソニー株式会社 携帯情報端末及び制御方法、並びにプログラム
US7762600B2 (en) 2007-11-08 2010-07-27 Honda Motor Co., Ltd. Vehicle interior door pull handle attachment method and apparatus
JP2009135750A (ja) 2007-11-30 2009-06-18 Kyocera Corp 再生システム、再生制御装置、再生制御方法および再生制御プログラム
US20090238378A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Enhanced Immersive Soundscapes Production
CN101626533A (zh) 2008-07-11 2010-01-13 宏碁股份有限公司 扬声器系统、装置以及方法
JP2010050544A (ja) 2008-08-19 2010-03-04 Onkyo Corp 映像音声再生装置
FR2942096B1 (fr) 2009-02-11 2016-09-02 Arkamys Procede pour positionner un objet sonore dans un environnement sonore 3d, support audio mettant en oeuvre le procede, et plate-forme de test associe
US10015620B2 (en) * 2009-02-13 2018-07-03 Koninklijke Philips N.V. Head tracking
US20100328419A1 (en) * 2009-06-30 2010-12-30 Walter Etter Method and apparatus for improved matching of auditory space to visual space in video viewing applications
JP2013529004A (ja) * 2010-04-26 2013-07-11 ケンブリッジ メカトロニクス リミテッド 位置追跡を備えるスピーカ
US9491560B2 (en) 2010-07-20 2016-11-08 Analog Devices, Inc. System and method for improving headphone spatial impression
JP2012104871A (ja) 2010-11-05 2012-05-31 Sony Corp 音響制御装置及び音響制御方法
WO2012083989A1 (en) * 2010-12-22 2012-06-28 Sony Ericsson Mobile Communications Ab Method of controlling audio recording and electronic device
US20120207308A1 (en) 2011-02-15 2012-08-16 Po-Hsun Sung Interactive sound playback device
US9596555B2 (en) 2012-09-27 2017-03-14 Intel Corporation Camera driven audio spatialization
BR112017021893A2 (pt) 2015-04-14 2018-07-10 Qualcomm Inc equipamento e método para controlar operação de dessintonização

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10230899A (ja) * 1997-02-24 1998-09-02 Motoya Takeyama 航空宇宙飛行機のマンマシンインターフェース
JPH11262096A (ja) * 1998-03-09 1999-09-24 Fuji Xerox Co Ltd 記録再生装置
US20060045294A1 (en) * 2004-09-01 2006-03-02 Smyth Stephen M Personalized headphone virtualization
JP2008512015A (ja) * 2004-09-01 2008-04-17 スミス リサーチ エルエルシー 個人化されたヘッドフォン仮想化処理
US20070025555A1 (en) * 2005-07-28 2007-02-01 Fujitsu Limited Method and apparatus for processing information, and computer product
JP2007036802A (ja) * 2005-07-28 2007-02-08 Fujitsu Ltd 情報処理装置、情報処理方法および情報処理プログラム
US20110316967A1 (en) * 2010-06-29 2011-12-29 Walter Etter Facilitating communications using a portable communication device and directed sound output
US20120093320A1 (en) * 2010-10-13 2012-04-19 Microsoft Corporation System and method for high-precision 3-dimensional audio for augmented reality

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110536665A (zh) * 2017-04-19 2019-12-03 微软技术许可有限责任公司 使用虚拟回声定位来仿真空间感知

Also Published As

Publication number Publication date
US11218829B2 (en) 2022-01-04
KR101614790B1 (ko) 2016-04-22
KR20140041367A (ko) 2014-04-04
CN106412772B (zh) 2020-01-07
US20240015464A1 (en) 2024-01-11
US20190124464A1 (en) 2019-04-25
TWI544813B (zh) 2016-08-01
TW201429274A (zh) 2014-07-16
US10080095B2 (en) 2018-09-18
EP2713631A2 (en) 2014-04-02
CN103702264A (zh) 2014-04-02
US20220109945A1 (en) 2022-04-07
US20130064376A1 (en) 2013-03-14
JP2014072894A (ja) 2014-04-21
CN106412772A (zh) 2017-02-15
EP2713631A3 (en) 2015-03-18
US11765541B2 (en) 2023-09-19
US20160366532A1 (en) 2016-12-15
CN103702264B (zh) 2019-02-15
JP5882964B2 (ja) 2016-03-09
US9596555B2 (en) 2017-03-14

Similar Documents

Publication Publication Date Title
JP5882964B2 (ja) カメラによるオーディオ空間化
US11812252B2 (en) User interface feedback for controlling audio rendering for extended reality experiences
TWI540891B (zh) 媒體播放工作量排程器
US20180357038A1 (en) Audio metadata modification at rendering device
JP2016511979A (ja) 3次元画像編集のための改善された技術
US11429340B2 (en) Audio capture and rendering for extended reality experiences
AU2013211541A1 (en) Mobile apparatus and control method thereof
KR102226817B1 (ko) 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
TWI619383B (zh) 無線顯示雲端模式
US10402160B2 (en) Audio localization techniques for visual effects
CN115623156B (zh) 音频处理方法和相关装置
WO2024046182A1 (zh) 一种音频播放方法、系统及相关装置
WO2023197646A1 (zh) 一种音频信号处理方法及电子设备
CN113709652A (zh) 音频播放控制方法和电子设备
CN112689825A (zh) 实现远程用户访问介导现实内容的装置、方法、计算机程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180213