JPWO2017061278A1 - 信号処理装置、信号処理方法及びコンピュータプログラム - Google Patents

信号処理装置、信号処理方法及びコンピュータプログラム Download PDF

Info

Publication number
JPWO2017061278A1
JPWO2017061278A1 JP2017544446A JP2017544446A JPWO2017061278A1 JP WO2017061278 A1 JPWO2017061278 A1 JP WO2017061278A1 JP 2017544446 A JP2017544446 A JP 2017544446A JP 2017544446 A JP2017544446 A JP 2017544446A JP WO2017061278 A1 JPWO2017061278 A1 JP WO2017061278A1
Authority
JP
Japan
Prior art keywords
signal processing
content
sound
processing apparatus
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017544446A
Other languages
English (en)
Other versions
JP6897565B2 (ja
Inventor
稀淳 金
稀淳 金
俊一 笠原
俊一 笠原
将治 吉野
将治 吉野
稲見 昌彦
昌彦 稲見
孝太 南澤
孝太 南澤
裕太 杉浦
裕太 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017061278A1 publication Critical patent/JPWO2017061278A1/ja
Application granted granted Critical
Publication of JP6897565B2 publication Critical patent/JP6897565B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Abstract

【課題】実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な信号処理装置を提供する。【解決手段】集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置が提供される。【選択図】図1

Description

本開示は、信号処理装置、信号処理方法及びコンピュータプログラムに関する。
聴取者に臨場感のある音を聴取させるための技術が従前より存在する。聴取者に臨場感のある音を聴取させるために、例えば、コンテンツ内の音声を立体再生したり、コンテンツ内の音に対してある一定の音響特性を付加して再生したりされている。立体再生の技術としては、例えば5.1チャンネルや7.1チャンネル等のサラウンドオーディオを生成したり、複数の音声モード(サッカースタジアムモード、コンサートホールモードなど)を切り替えて再生したりする技術がある。後者のモード切替のために、空間特性を記録して、コンテンツ中の音にエフェクトを加えることは行われてきた(例えば特許文献1参照)。
特開平6−186966号公報
しかし、上述した技術は、いずれもコンテンツ中の音をどのように再生するかという点にとどまっている。実空間中で放たれた音は、あくまでその実空間での音響特性に従って反響などがなされるので、コンテンツ中の音をいかに臨場感があるように再生しても、実空間とコンテンツ空間とが分離される感覚を聴取者が覚えてしまう。
そこで、本開示では、実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提案する。
本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置が提供される。
また本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法が提供される。
また本開示によれば、集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、実空間中で放たれた音に、実空間とは異なる音響特性を与えることで、実空間と異なる環境を実空間に再現させることが可能な、新規かつ改良された信号処理装置、信号処理方法及びコンピュータプログラムを提供することが出来る。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施の形態の概要について説明する説明図である。 本開示の実施の形態の概要について説明する説明図である。 信号処理装置の第1の構成例を示す説明図である。 信号処理装置の第1の動作例を示す流れ図である。 信号処理装置の第2の構成例を示す説明図である。 信号処理装置の第2の動作例を示す流れ図である。 信号処理装置の第3の構成例を示す説明図である。 信号処理装置の第3の動作例を示す流れ図である。 信号処理装置の第4の構成例を示す説明図である。 信号処理装置の第4の動作例を示す流れ図である。 信号処理装置の第5の構成例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の実施の形態
1.1.概要
1.2.第1の構成例及び動作例
1.3.第2の構成例及び動作例
1.4.第3の構成例及び動作例
1.5.第4の構成例及び動作例
1.6.第5の構成例
1.7.変形例
2.まとめ
<1.本開示の実施の形態>
[1.1.概要]
まず、本開示の実施の形態の概要について説明する。図1は、本開示の実施の形態の概要について説明する説明図である。
図1に示した信号処理装置100は、マイク10が置かれている物理空間(現実空間)で発せられた音に、他の空間の音響特性を加える信号処理を行う装置である。現実空間で発せられた音に、他の空間の音響特性を加える信号処理を行うことで、信号処理装置100は、現実空間に他の空間を再現し、または現実空間を他の空間で拡張する効果を与えることができる。
テーブル11の上に置かれているマイク10は、現実空間で発せられた音、例えば人間の会話の音や、テーブル11に物が置かれたときの音を集音する。マイク10は、集音した音を信号処理装置100に出力する。
信号処理装置100は、マイク10が集音した音に対して、他の空間の音響特性を加える信号処理を行う。信号処理装置100は、例えば現実空間に置かれている表示装置20が出力しているコンテンツから、他の空間の音響特性を特定し、マイク10が集音した音に対してその音響特性を加える。そして信号処理装置100は、信号処理後の信号をスピーカ12に出力する。スピーカ12は、例えばテーブル11の背面などに置かれる。
例えば、表示装置20が出力しているコンテンツが洞窟の中のシーンである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのコンテンツ中の洞窟と同じように、発した音が反響するような音響特性を加える。
また例えば、表示装置20が出力しているコンテンツがコンサート映像である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのコンテンツ中のコンサートホールと同じように、発した音が反響するような音響特性を加える。なお、映像を表示しなくても、コンサート音楽を再生する場合も、信号処理装置100は、同様に空間の再現が可能である。
また例えば、表示装置20が出力しているコンテンツが宇宙映画である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、例えばその音と逆位相の音をエフェクトとして付加することで、実際に発した音を聞こえにくくし、真空の宇宙空間のような空間を再現することができる。
また例えば、表示装置20が出力しているコンテンツが水面をメインにしたコンテンツである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、現実空間で発した音に、物が水面に落ちたような残響音を付加することで水面空間を再現する。また例えば、表示装置20が出力しているコンテンツが水中空間の映像である場合に、現実空間にいる人間が音を発すると、信号処理装置100は、水中で音が発せられたような残響を付加する。
また例えば、表示装置20が出力しているコンテンツがバーチャル空間のコンテンツ、例えばゲームコンテンツである場合に、現実空間にいる人間が音を発すると、信号処理装置100は、そのバーチャル空間の音響特性を、物理空間で発した音に適用して出力する。
例えば、ゲームコンテンツ中の映像が洞窟の映像だった場合、信号処理装置100は、まるで洞窟空間にいるかのように、現実空間の音を反響させる。また例えば、ゲームコンテンツ中の映像が水中の映像だった場合、信号処理装置100は、まるで水中にいるかのように、現実空間の音を反響させる。また例えば、ゲームコンテンツ中の映像がSF(Science Fiction)の映像だった場合、信号処理装置100は、現実空間で発せられた音に、コンテンツに登場するキャラクタの呼吸音等を残響として付加して出力する。信号処理装置100は、このようにバーチャル空間の音響特性を、物理空間で発した音に適用して出力することで、現実空間をバーチャル空間に拡張することができる。
信号処理装置100は、表示装置20が出力しているコンテンツのシーンごとに再現する空間を動的に切り替えてもよい。信号処理装置100は、表示装置20が出力しているコンテンツのシーンに連動して、現実空間で発せられた音に付加する音響特性を動的に切り替えることで、例えば、1つのコンテンツの中でもシーンが切り替わるごとに、そのシーンと同一の空間を、現実空間にいる人間に体験させ続けることができる。
例えば、表示装置20が出力しているコンテンツが映画で、その映画の中で水中のシーンになると、信号処理装置100は、水中にいるかのような音響特性を与え、シーンが切り替わって洞窟の中のシーンになると、信号処理装置100は、洞窟の中にいるかのような音響特性を与える。
信号処理装置100によって信号処理が施された音をスピーカ12が出力することで、現実空間に位置する人間は、その現実空間で発せられた音を、あたかも表示装置20が出力しているコンテンツにおける空間で発せられた音のように聴取することが出来る。
このように、信号処理装置100は、現実空間で発せられた音を、あたかも表示装置20が出力しているコンテンツにおける空間で発せられた音のように聴取させる信号処理を実行する。なお、図1では、テーブル11の上にマイク10が置かれ、テーブル11の背面にスピーカ12が設けられている状態を図示したが、本開示は係る例に限定されるものではない。例えば、マイク10やスピーカ12は、表示装置20に内蔵されていても良い。さらに言えば、マイク10やスピーカ12は、表示装置20が置かれている部屋と同じ部屋に置かれていれば良い。
図2は、本開示の実施の形態の概要について説明する説明図である。図2に示したのは、例えばスマートフォンのような機器として構成されている信号処理装置100が、信号処理装置100で再生中のコンテンツに基づいて、他の空間の音響特性を加える処理を行う際のシステムの構成例である。
聴取者が、信号処理装置100に接続したイヤホン12a、12bを耳に装着しており、イヤホン12a、12bに設けられているマイク10a、10bが現実空間の音を集音すると、信号処理装置100は、マイク10a、10bが集音した音に対する信号処理を実行する。この信号処理は、信号処理装置100で再生中のコンテンツに基づいて、他の空間の音響特性を加える処理である。
マイク10a、10bは、聴取者自身が発した声や、聴取者の周囲で発せられた音を集音する。信号処理装置100は、マイク10a、10bが集音した現実空間の音に対して、他の空間の音響特性を加える信号処理を行い、その信号処理後の音をイヤホン12a、12bから出力する。
例えば電車の中という現実空間で、聴取者が信号処理装置100を使用してコンサートのライブ音源を聴いている場合に、信号処理装置100は、現実空間(電車の中)にいる周囲の人の声や物音に対して、コンサートホールの音響特性を加えてイヤホン12a、12bから出力する。信号処理装置100は、現実空間(電車の中)にいる周囲の人の声や物音に対して、コンサートホールの音響特性を加えて出力することで、電車の中にいる他の人も含めて、コンサートホール空間にいる人として、コンサートホール空間を再現できる。
マイク10a、10bにより音を記録し、さらに音を記録した場所の空間の音響特性を付加してコンテンツを作り込んでもよい。信号処理装置100は、実際にバイノーラルな立体音として音を記録した場所の空間を感じると同時に、現実空間で発せられた音も、その音を記録した場所の音響特性を加えて出力することで、よりリアルな空間を再現する。
複数人で同じコンテンツを視聴している場合であっても、信号処理装置100ごとに現実空間で発せられた音に対して付加する音響特性を切り替えることができる。信号処理装置100は、複数人が同じ現実空間で同じコンテンツを視聴しているにもかかわらず、異なる音響特性が現実空間で発せられた音に対して付加されるので、聴取者毎に空間を感じることを可能にする。
以上、本開示の実施の形態の概要について説明した。続いて、本開示の実施の形態の構成例及び動作例について、いくつか例示して説明する。
[1.2.第1の構成例及び動作例]
まず、本開示の実施の形態に係る信号処理装置100の第1の構成例及び動作例を説明する。図3は、本開示の実施の形態に係る信号処理装置100の第1の構成例を示す説明図である。図3に示した第1の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
図3に示したように、信号処理装置100は、メタ情報抽出部110と、エフェクト設定部120と、を含んで構成される。
メタ情報抽出部110は、再生中のコンテンツからメタ情報を抽出する。メタ情報抽出部110は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。メタ情報抽出部110は、抽出したメタ情報をエフェクト設定部120に出力する。
メタ情報抽出部110は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
エフェクト設定部120は、本開示の制御部の一例であり、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
例えば、メタ情報抽出部110が出力したメタ情報がエフェクトのパラメータであれば、エフェクト設定部120は、そのパラメータに基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。また例えば、メタ情報抽出部110が出力したメタ情報がエフェクト名であれば、エフェクト設定部120は、そのエフェクト名に基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
エフェクト設定部120は、例えば、洞窟の中にいるような効果を与える場合は、エフェクトとして、現実空間で発せられた音に対してエコーを掛けて、音の残存時間を長くする。エフェクト設定部120は、また例えば、水中にいるような効果を与える場合は、現実空間で発せられた音に対して水泡が発せられるようなエフェクトを掛ける。
エフェクト設定部120は、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
信号処理装置100は、図3に示したような構成を有することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
図4は、本開示の実施の形態に係る信号処理装置100の第1の動作例を示す説明図である。図4に示した第1の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS101)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
信号処理装置100は、再生中のコンテンツからメタ情報を抽出する(ステップS102)。信号処理装置100は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。信号処理装置100は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
そして信号処理装置100は、再生中のコンテンツからメタ情報を抽出すると、上記ステップS101で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS102で取得したメタ情報を用いて設定する(ステップS103)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS101で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
信号処理装置100は、図4に示したような動作を実行することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
[1.3.第2の構成例及び動作例]
次に、本開示の実施の形態に係る信号処理装置100の第2の構成例及び動作例を説明する。図5は、本開示の実施の形態に係る信号処理装置100の第2の構成例を示す説明図である。図5に示した第2の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する画像認識処理を行って、その画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
図5に示したように、信号処理装置100は、画像認識部112と、エフェクト設定部120と、を含んで構成される。
画像認識部112は、再生中のコンテンツに対する画像認識処理を実行する。画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータが設定されるので、画像認識部112は、再生中のコンテンツがどのような場所のシーンであるかを判別できる程度の画像認識処理を行う。画像認識部112は、再生中のコンテンツに対する画像認識処理を実行すると、画像認識処理の結果をエフェクト設定部120に出力する。
例えば、映像中に海や川、湖などが多く含まれていれば、画像認識部112は、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識出来る。また例えば、映像が暗く、その映像中に岩肌などが多く含まれていれば、画像認識部112は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
画像認識部112は、画像認識処理を、毎フレーム実行しても良い。しかし、シーンがフレーム毎に頻繁に切り替わることは極めて稀であろうから、処理負荷の軽減のために、画像認識処理を所定の間隔で実行してもよい。
エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、画像認識部112による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
例えば、画像認識部112による画像認識処理の結果、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識された場合は、エフェクト設定部120は、物が水面に落ちたような残響音を付加したり、水中で音が発せられたような残響を付加したりするようなエフェクト処理のパラメータを設定する。
また例えば、画像認識部112による画像認識処理の結果、再生中のコンテンツが洞窟の中のシーンであると認識された場合は、エフェクト設定部120は、洞窟の中にいるかのような残響を付加するようなエフェクト処理のパラメータを設定する。
エフェクト設定部120は、画像認識部112による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
信号処理装置100は、図5に示したような構成を有することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図5に示したような構成を有することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
図6は、本開示の実施の形態に係る信号処理装置100の第2の動作例を示す説明図である。図6に示した第2の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する画像認識処理を行って、その画像認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS111)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
信号処理装置100は、再生中のコンテンツに対して画像を認識する(ステップS112)。例えば、映像中に海や川、湖などが多く含まれていれば、信号処理装置100は、再生中のコンテンツが水辺に近い場所のシーンや、水中にいるシーンであると認識出来る。また例えば、映像が暗く、その映像中に岩肌などが多く含まれていれば、信号処理装置100は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
そして信号処理装置100は、再生中のコンテンツに対して画像認識処理を行うと、上記ステップS111で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS112での画像認識処理の結果を用いて設定する(ステップS113)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS111で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
信号処理装置100は、図6に示したような動作を実行することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図6に示したような動作を実行することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
[1.4.第3の構成例及び動作例]
次に、本開示の実施の形態に係る信号処理装置100の第3の構成例及び動作例を説明する。図7は、本開示の実施の形態に係る信号処理装置100の第2の構成例を示す説明図である。図7に示した第3の構成例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する音声認識処理を行って、その音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
図7に示したように、信号処理装置100は、音声認識部114と、エフェクト設定部120と、を含んで構成される。
音声認識部114は、再生中のコンテンツに対する音声認識処理を実行する。音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータが設定されるので、音声認識部114は、再生中のコンテンツがどのような場所のシーンであるかを判別できる程度の音声認識処理を行う。音声認識部114は、再生中のコンテンツに対する音声認識処理を実行すると、音声認識処理の結果をエフェクト設定部120に出力する。
例えば、音声中に水に物を落とした場合に発生する反響音が存在することがわかれば、音声認識部114は、再生中のコンテンツが水辺に近い場所のシーンであると認識出来る。また例えば、音声中に洞窟の反響音が存在することがわかれば、音声認識部114は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、音声認識部114による音声認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
例えば、音声認識部114による音声認識処理の結果、再生中のコンテンツが水辺に近い場所のシーンであると認識された場合は、エフェクト設定部120は、物が水面に落ちたような残響音を付加するようなエフェクト処理のパラメータを設定する。
また例えば、音声認識部114による画像認識処理の結果、再生中のコンテンツが洞窟の中のシーンであると認識された場合は、エフェクト設定部120は、洞窟の中にいるかのような残響を付加するようなエフェクト処理のパラメータを設定する。
エフェクト設定部120は、音声認識部114による画像認識処理の結果を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定すると、そのパラメータを用いて現実空間で発せられた音に対するエフェクト処理を実行し、エフェクト処理後の音を出力する。
信号処理装置100は、図7に示したような構成を有することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図7に示したような構成を有することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
図8は、本開示の実施の形態に係る信号処理装置100の第2の動作例を示す説明図である。図8に示した第3の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに対する音声認識処理を行って、その音声認識処理の結果から、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS121)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
信号処理装置100は、再生中のコンテンツに対して音声を認識する(ステップS122)。例えば、音声中に水に物を落とした場合に発生する反響音が存在することがわかれば、信号処理装置100は、再生中のコンテンツが水辺に近い場所のシーンであると認識出来る。また例えば、音声中に洞窟の反響音が存在することがわかれば、信号処理装置100は、再生中のコンテンツが洞窟の中のシーンであると認識出来る。
そして信号処理装置100は、再生中のコンテンツに対して音声認識処理を行うと、上記ステップS121で取得した環境音に対して実行するエフェクト処理のパラメータを、上記ステップS122での音声認識処理の結果を用いて設定する(ステップS123)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS121で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
信号処理装置100は、図8に示したような動作を実行することで、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。すなわち、信号処理装置100は、図8に示したような動作を実行することで、メタ情報が付加されていないコンテンツであっても、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
信号処理装置100は、ここまで示したメタデータの抽出、映像認識、音声認識を組み合わせて、コンテンツ中のシーンがどのような場所であるかどうかを判断しても良い。また、コンテンツが楽曲データ等の映像が無いコンテンツである場合は、信号処理装置100は、メタデータの抽出と音声認識とを組み合わせて、現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
[1.5.第4の構成例及び動作例]
次に、本開示の実施の形態に係る信号処理装置100の第4の構成例及び動作例を説明する。ここまでの説明では、いずれもエフェクト設定部120が、再生中のコンテンツの内容に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定していた。エフェクト設定部120は、現実空間の音に対するエフェクト処理のパラメータを設定する際に、ネットワーク上のサーバから、エフェクト処理のパラメータを検索してもよい。
図9は、本開示の実施の形態に係る信号処理装置100の第4の構成例を示す説明図である。図9に示したように、信号処理装置100は、メタ情報抽出部110と、エフェクト設定部120と、を含んで構成される。
メタ情報抽出部110は、図3に示した第1の構成例と同様に、再生中のコンテンツからメタ情報を抽出する。メタ情報抽出部110は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。メタ情報抽出部110は、抽出したメタ情報をエフェクト設定部120に出力する。
エフェクト設定部120は、現実空間で発せられた音に対してエフェクト処理を行うことで、現実空間で発せられた音に、再生中のコンテンツにおける他の空間の音響特性を加える信号処理を行う。そしてエフェクト設定部120は、他の空間の音響特性を加える信号処理を行う際に、図3に示した第1の構成例と同様に、メタ情報抽出部110が抽出したメタ情報を用いて現実空間で発せられた音に対するエフェクト処理のパラメータを設定する。
この第4の構成例では、エフェクト設定部120は、現実空間で発せられた音に対するエフェクト処理のパラメータを設定する際に、ネットワーク上のサーバに置かれているデータベース200を検索して、エフェクト処理のパラメータを取得しても良い。データベース200に格納される情報のフォーマットは特定のものに限定されるものでは無いが、エフェクト名やシーンなどの情報からパラメータが抽出できるように情報がデータベース200に格納されていることが望ましい。
例えば、メタ情報抽出部110が出力したメタ情報がエフェクト名であれば、エフェクト設定部120は、そのエフェクト名に基づいて現実空間で発せられた音に対するエフェクト処理のパラメータを設定するが、エフェクト名に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得する。
例えば、メタ情報抽出部110が出力したメタ情報が、「洞窟の中」というエフェクト名であり、洞窟の中にいるような音響特性を加えるパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、その洞窟の中にいるような音響特性を加えるエフェクト処理のパラメータをデータベース200から取得する。
信号処理装置100は、図9に示したような構成を有することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
図10は、本開示の実施の形態に係る信号処理装置100の第4の動作例を示す説明図である。図10に示した第4の動作例は、(表示装置20、または信号処理装置100で)再生中のコンテンツに、現実空間の音に対するエフェクトのパラメータやエフェクト名などのメタ情報を予め付与しておき、そのコンテンツからメタ情報を抽出することで、現実空間の音に対するエフェクト処理のパラメータを設定するものである。
信号処理装置100は、まず現実空間で発せられた周囲の環境音を継続的に取得する(ステップS131)。環境音の取得は、例えば、図1で示したマイク10や、図2で示したマイク10a、10bが行う。
信号処理装置100は、再生中のコンテンツからメタ情報を抽出する(ステップS132)。信号処理装置100は、メタ情報として例えばコンテンツに予め付与されているエフェクトのパラメータや、エフェクト名等のメタ情報を抽出する。信号処理装置100は、メタ情報の抽出を、所定の間隔で実行しても良く、メタ情報が切り替わったことを検出した時点で実行しても良い。
信号処理装置100は、再生中のコンテンツからメタ情報を抽出すると、上記ステップS131で取得した環境音に対して実行するエフェクト処理のパラメータを、データベース200から取得する(ステップS133)。そして信号処理装置100は、上記ステップS131で取得した環境音に対して実行するエフェクト処理のパラメータとして、ステップS133で取得したエフェクト処理のパラメータを設定する(ステップS134)。信号処理装置100は、エフェクト処理のパラメータを設定すると、そのパラメータを用いて上記ステップS131で取得した環境音に対するエフェクト処理を実行して、エフェクト処理後の音を出力する。
信号処理装置100は、図10に示したような動作を実行することで、(表示装置20、または信号処理装置100で)再生中のコンテンツに予め付与されているメタ情報に基づいて、現実空間の音に対するエフェクト処理のパラメータを設定することが出来る。
なお、図9及び図10に示した例では、再生中のコンテンツからメタ情報を抽出する構成及び動作を示したが、上述の第2の構成例のように再生中のコンテンツに対して映像認識処理を行って、その映像認識の結果に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得してもよい。
また、上述の第3の構成例のように再生中のコンテンツに対して音声認識処理を行って、その音声認識の結果に対応するパラメータをエフェクト設定部120が保持していなければ、エフェクト設定部120は、そのエフェクト名に対応するパラメータをデータベース200から取得してもよい。
[1.6.第5の構成例]
ここまでは、再生中のコンテンツからメタ情報を抽出したり、再生中のコンテンツに対して映像や音声の認識処理を行ったりすることで、エフェクト処理のパラメータを設定する信号処理装置100の構成例及び動作例を説明した。次の例は、コンテンツに予め音響特性が付与されており、その音響特性に対応するエフェクト処理のパラメータを設定する信号処理装置100の構成例を説明する。
図11は、本開示の実施の形態に係る信号処理装置100の第5の構成例を示す説明図である。図11に示したように、信号処理装置100は、エフェクト設定部120を含んで構成される。
エフェクト設定部120は、再生中のコンテンツの1つのチャンネルとして構成されている音響特性の情報を取得し、その音響特性に対応するエフェクト処理のパラメータを設定する。エフェクト設定部120は、再生中のコンテンツの音響特性に対応するエフェクト処理のパラメータを設定することで、現実空間の音に対して、よりリアルな再生中のコンテンツの音響特性を加えることが出来る。
信号処理装置100は、音響特性の情報が再生中のコンテンツに含まれていなければ、再生中のコンテンツからメタ情報を抽出する処理を実行してもよい。そして再生中のコンテンツにメタ情報が含まれていなければ、信号処理装置100は、再生中のコンテンツの映像解析処理や音声解析処理を実行してもよい。
[1.7.変形例]
上述した信号処理装置100は、いずれもコンテンツからメタ情報を抽出したり、コンテンツの映像や音声を解析したりすることで、現実空間の音に対するエフェクト処理のパラメータを設定していた。この他にも、例えば信号処理装置100は、ユーザの行動に応じて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
例えば信号処理装置100は、ユーザにエフェクト処理の内容を選択させても良い。例えば、ユーザが視聴しているコンテンツに洞窟の中のシーンが登場し、ユーザが現実空間の音を洞窟の中のように響かせたいと思った場合、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行うようユーザが選択出来るようにしても良い。また例えば、ユーザが視聴しているコンテンツに森の中のシーンが登場し、ユーザが現実空間の音を森の中のようにあまり響かせたくないと思った場合、信号処理装置100は、音を反響させないようなエフェクト処理を行うようユーザが選択出来るようにしても良い。
また信号処理装置100は、予め現実空間の音響特性の情報を保持するか、または参照できる状態にしておき、現実空間の音響特性に応じて、現実空間の音に対するエフェクト処理のパラメータを変更してもよい。現実空間の音響特性は、例えばマイク10で集音された音を解析することで得られる。
例えば、現実空間が会議室のような音が反響しやすい空間である場合に、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行うと、現実空間の音が響きすぎてしまうので、現実空間の音が響きすぎないようにパラメータを調整してもよい。また例えば、現実空間が広い部屋のような音が反響しにくい空間である場合に、信号処理装置100は、洞窟の中にいるようなエフェクト処理を行う際に音が強めに反響するようパラメータを調整してもよい。
例えば信号処理装置100は、ユーザが携帯または装着するセンサが出力するセンシングデータに応じて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。信号処理装置100は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、照度センサ、温度センサ、または気圧センサなどのデータからユーザの行動を認識したり、または他の装置でこれらのセンサのデータから認識されたユーザの行動を取得したりして、そのユーザの行動に基づいて現実空間の音に対するエフェクト処理のパラメータを設定してもよい。
例えば、上記センサのデータからユーザが集中していると認識出来た場合は、信号処理装置100は、音を反響させないようなエフェクト処理のパラメータを設定してもよい。なお、行動認識の手法については、例えば特開2012−8771号公報など多くの文献に記載されているため、詳細な説明は省略する。
<2.まとめ>
以上説明したように本開示の実施の形態によれば、現実空間において再生されているコンテンツの音響特性を、現実空間で集音された音に加えることで、現実空間において再生されているコンテンツの空間を現実空間にまで拡張させた感覚をコンテンツの視聴者に感じさせることが可能な信号処理装置100が提供される。
本明細書の各装置が実行する処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、各装置が実行する処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、各装置に内蔵されるCPU、ROMおよびRAMなどのハードウェアを、上述した各装置の構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供されることが可能である。また、機能ブロック図で示したそれぞれの機能ブロックをハードウェアまたはハードウェア回路で構成することで、一連の処理をハードウェアまたはハードウェア回路で実現することもできる。
また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの一部又は全部は、たとえばインターネット等のネットワークを介して接続されるサーバ装置で実現されてもよい。また上述の説明で用いた機能ブロック図で示したそれぞれの機能ブロックの構成は、単独の装置で実現されてもよく、複数の装置が連携するシステムで実現されても良い。複数の装置が連携するシステムには、例えば複数のサーバ装置の組み合わせ、サーバ装置と端末装置との組み合わせ等が含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置。
(2)
前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツのシーンに応じて音響特性を決定する、前記(1)に記載の信号処理装置。
(3)
前記制御部は、前記コンテンツの画像または音を解析することで前記コンテンツのシーンを判定する、前記(2)に記載の信号処理装置。
(4)
前記制御部は、前記コンテンツに付与されたメタデータに基づいて前記コンテンツのシーンを判定する、前記(2)に記載の信号処理装置。
(5)
前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツに付与された音響特性を前記周囲音に加える、前記(1)〜(4)のいずれかに記載の信号処理装置。
(6)
前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが携帯または装着するセンサが出力するセンシングデータに応じて音響特性を決定する、前記(1)に記載の信号処理装置。
(7)
前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが選択した音響特性を前記周囲音に加える、前記(1)に記載の信号処理装置。
(8)
前記制御部は、前記周囲音を取得するマイクが置かれている空間の音響特性を考慮して音響特性を決定する、前記(1)〜(7)のいずれかに記載の信号処理装置。
(9)
集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法。
(10)
集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラム。
10、10a、10b マイク
11 テーブル
12、12a、12b スピーカ
100 信号処理装置

Claims (10)

  1. 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える制御部を備える、信号処理装置。
  2. 前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツのシーンに応じて音響特性を決定する、請求項1に記載の信号処理装置。
  3. 前記制御部は、前記コンテンツの画像または音を解析することで前記コンテンツのシーンを判定する、請求項2に記載の信号処理装置。
  4. 前記制御部は、前記コンテンツに付与されたメタデータに基づいて前記コンテンツのシーンを判定する、請求項2に記載の信号処理装置。
  5. 前記制御部は、再生されているコンテンツに応じて音響特性を決定する場合、前記コンテンツに付与された音響特性を前記周囲音に加える、請求項1に記載の信号処理装置。
  6. 前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが携帯または装着するセンサが出力するセンシングデータに応じて音響特性を決定する、請求項1に記載の信号処理装置。
  7. 前記制御部は、ユーザの行動に応じて音響特性を決定する場合、前記ユーザが選択した音響特性を前記周囲音に加える、請求項1に記載の信号処理装置。
  8. 前記制御部は、前記周囲音を取得するマイクが置かれている空間の音響特性を考慮して音響特性を決定する、請求項1に記載の信号処理装置。
  9. 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加える処理をプロセッサが実行することを含む、信号処理方法。
  10. 集音されたユーザの周囲音を、異なる音響特性の空間で前記ユーザに聴取させるための所定の音響特性を、再生されているコンテンツまたはユーザの行動に応じて決定して、決定した音響特性を前記周囲音に加えることをコンピュータに実行させる、コンピュータプログラム。
JP2017544446A 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム Active JP6897565B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015200900 2015-10-09
JP2015200900 2015-10-09
PCT/JP2016/077869 WO2017061278A1 (ja) 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2017061278A1 true JPWO2017061278A1 (ja) 2018-07-26
JP6897565B2 JP6897565B2 (ja) 2021-06-30

Family

ID=58487550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017544446A Active JP6897565B2 (ja) 2015-10-09 2016-09-21 信号処理装置、信号処理方法及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US10674304B2 (ja)
EP (1) EP3361756B1 (ja)
JP (1) JP6897565B2 (ja)
CN (1) CN108141693B (ja)
WO (1) WO2017061278A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109327795B (zh) * 2018-11-13 2021-09-14 Oppo广东移动通信有限公司 音效处理方法及相关产品
JP7267096B2 (ja) * 2019-05-17 2023-05-01 株式会社ソニー・インタラクティブエンタテインメント オーディオエフェクト制御システム、オーディオエフェクト制御装置、受信装置、オーディオエフェクト制御方法、受信装置の制御方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01130700A (ja) * 1987-11-17 1989-05-23 Victor Co Of Japan Ltd Avサラウンドシステム
JPH04306100A (ja) * 1991-04-03 1992-10-28 Fujitsu Ten Ltd 音場再生用コンパクトディスク及び音場制御装置
JP2000194460A (ja) * 1998-12-25 2000-07-14 Mitsubishi Electric Corp メニュ―選択装置
US20090106670A1 (en) * 2007-10-20 2009-04-23 Philipp Christian Berndt Systems and methods for providing services in a virtual environment
JP2013243619A (ja) * 2012-05-22 2013-12-05 Toshiba Corp 音響処理装置及び音響処理方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5559891A (en) * 1992-02-13 1996-09-24 Nokia Technology Gmbh Device to be used for changing the acoustic properties of a room
US5729613A (en) * 1993-10-15 1998-03-17 Industrial Research Limited Reverberators for use in wide band assisted reverberation systems
US5559892A (en) * 1994-03-28 1996-09-24 Knowles Electronics, Inc. Impedence buffering MOS circuit with dynamically reduced threshold voltage, as for use in an output buffer of a hearing aid amplifier
JP2003087712A (ja) * 2001-09-14 2003-03-20 Jisedai Joho Hoso System Kenkyusho:Kk スポーツ映像のダイジェスト作成方法およびダイジェスト作成装置
US7521623B2 (en) * 2004-11-24 2009-04-21 Apple Inc. Music synchronization arrangement
JP2005252467A (ja) * 2004-03-02 2005-09-15 Sony Corp 音響再生方法、音響再生装置および記録メディア
CN1969589B (zh) * 2004-04-16 2011-07-20 杜比实验室特许公司 用于创建音频场景的设备和方法
JP2006025281A (ja) * 2004-07-09 2006-01-26 Hitachi Ltd 情報源選択システム、および方法
JP4222276B2 (ja) * 2004-08-27 2009-02-12 ソニー株式会社 再生システム
JP4873316B2 (ja) * 2007-03-09 2012-02-08 株式会社国際電気通信基礎技術研究所 音響空間共有装置
WO2008125593A2 (en) 2007-04-14 2008-10-23 Musecom Ltd. Virtual reality-based teleconferencing
CN102568535A (zh) * 2010-12-23 2012-07-11 美律实业股份有限公司 互动式声音录放装置
US9694282B2 (en) * 2011-04-08 2017-07-04 Disney Enterprises, Inc. Importing audio to affect gameplay experience
JP6202003B2 (ja) * 2012-11-02 2017-09-27 ソニー株式会社 信号処理装置、信号処理方法
EP2916567B1 (en) * 2012-11-02 2020-02-19 Sony Corporation Signal processing device and signal processing method
CN104010265A (zh) * 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
JP6204682B2 (ja) * 2013-04-05 2017-09-27 日本放送協会 音響信号再生装置
US9888333B2 (en) * 2013-11-11 2018-02-06 Google Technology Holdings LLC Three-dimensional audio rendering techniques
US20160210775A1 (en) * 2015-01-21 2016-07-21 Ford Global Technologies, Llc Virtual sensor testbed
US10484598B2 (en) * 2015-08-20 2019-11-19 Sony Corporation System and method for controlling capture of images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01130700A (ja) * 1987-11-17 1989-05-23 Victor Co Of Japan Ltd Avサラウンドシステム
JPH04306100A (ja) * 1991-04-03 1992-10-28 Fujitsu Ten Ltd 音場再生用コンパクトディスク及び音場制御装置
JP2000194460A (ja) * 1998-12-25 2000-07-14 Mitsubishi Electric Corp メニュ―選択装置
US20090106670A1 (en) * 2007-10-20 2009-04-23 Philipp Christian Berndt Systems and methods for providing services in a virtual environment
JP2013243619A (ja) * 2012-05-22 2013-12-05 Toshiba Corp 音響処理装置及び音響処理方法

Also Published As

Publication number Publication date
EP3361756B1 (en) 2024-04-17
CN108141693A (zh) 2018-06-08
JP6897565B2 (ja) 2021-06-30
WO2017061278A1 (ja) 2017-04-13
US10674304B2 (en) 2020-06-02
CN108141693B (zh) 2021-10-29
EP3361756A1 (en) 2018-08-15
EP3361756A4 (en) 2019-06-05
US20180352361A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
KR101844388B1 (ko) 개인용 오디오의 전달을 위한 시스템들 및 방법들
KR100739723B1 (ko) 오디오 썸네일 기능을 지원하는 오디오 재생 방법 및 장치
KR20190028697A (ko) 가상, 증강, 및 혼합 현실
CN109644314A (zh) 在数字音频信号处理双耳渲染环境中产生头戴式耳机驱动信号
US10798518B2 (en) Apparatus and associated methods
McGill et al. Acoustic transparency and the changing soundscape of auditory mixed reality
KR20160015317A (ko) 오디오 장면 장치
TW201820315A (zh) 改良型音訊耳機裝置及其聲音播放方法、電腦程式
JP6246922B2 (ja) 音響信号処理方法
US7327848B2 (en) Visualization of spatialized audio
EP4080910A1 (en) Impulse response generation system and method
JP2021520760A (ja) 音源の位置特定
WO2017061278A1 (ja) 信号処理装置、信号処理方法及びコンピュータプログラム
JPWO2014112206A1 (ja) 記憶制御装置、再生制御装置および記録媒体
RU2616161C2 (ru) Способ обработки аудиосигнала для улучшенного преобразования
JP2015065541A (ja) 音響制御装置及び方法
JP2016067817A (ja) シミュレーションゲームシステム、情報処理方法及びプログラム
CN105979468A (zh) 一种音频处理方法及装置
WO2023085186A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230251718A1 (en) Method for Generating Feedback in a Multimedia Entertainment System
WO2023084933A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2022113393A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
WO2022113394A1 (ja) ライブデータ配信方法、ライブデータ配信システム、ライブデータ配信装置、ライブデータ再生装置、およびライブデータ再生方法
WO2018105254A1 (ja) 情報処理装置、情報処理方法、およびプログラム
KR20150005438A (ko) 오디오 신호 처리 방법 및 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R151 Written notification of patent or utility model registration

Ref document number: 6897565

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151