JP2013523006A - 立体音響の再生方法及びその装置 - Google Patents

立体音響の再生方法及びその装置 Download PDF

Info

Publication number
JP2013523006A
JP2013523006A JP2012558085A JP2012558085A JP2013523006A JP 2013523006 A JP2013523006 A JP 2013523006A JP 2012558085 A JP2012558085 A JP 2012558085A JP 2012558085 A JP2012558085 A JP 2012558085A JP 2013523006 A JP2013523006 A JP 2013523006A
Authority
JP
Japan
Prior art keywords
acoustic
depth value
video
value
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012558085A
Other languages
English (en)
Other versions
JP5944840B2 (ja
Inventor
チョウ,ヨン−チュン
キム,ソン−ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2013523006A publication Critical patent/JP2013523006A/ja
Application granted granted Critical
Publication of JP5944840B2 publication Critical patent/JP5944840B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

映像信号内の少なくとも1つの映像オブジェクトと基準位置との間の距離を示す映像深度情報を獲得し、映像深度情報に基づいて、音響信号内の少なくとも1つの音響オブジェクトと基準位置との間の距離を示す音響深度情報を獲得した後、音響深度情報に基づいて、少なくとも1つの音響オブジェクトに音響遠近感を付与する立体音響の再生方法が開示される。

Description

本発明は、立体音響の再生方法及びその装置に係り、特に、音響オブジェクトに対して遠近感を付与する立体音響の再生方法及びその装置に係わる。
映像技術の発展に後押しされ、ユーザは、三次元立体映像が視聴可能になった。三次元立体映像は、両眼視差を考慮し、左視点映像データを左目に露出させ、右視点映像データを右目に露出させる。ユーザは、三次元映像技術を介して、スクリーンから飛び出したり、あるいはスクリーンの奥に入り込むオブジェクトを実感をもって認識することができる。
一方、映像技術の発展と共に、音響に対するユーザの関心が高まっており、特に、立体音響技術が目立って発展している。立体音響技術は、ユーザの周りに複数個のスピーカを配置し、ユーザに正位感及び臨場感を感じさせる。しかし、立体音響技術では、ユーザに近づいたり、あるいはユーザから遠ざかる映像オブジェクトを効果的に表現することができないので、立体映像に符合する音響効果を提供することができない。
前記の問題点を解決するための本発明の目的は、効果的に立体音響を再生する方法及びその装置を提供することであり、特に、音響オブジェクトに対して遠近感を付与し、ユーザに近づいたり、あるいは遠ざかる音響を効果的に表現する立体音響の再生方法及びその装置を提供するところにある。
前記の目的を果たすための本発明の一実施形態が有する1つの特徴は、立体映像信号内の少なくとも1つの映像オブジェクトと基準点との間の距離を示す映像深度情報を獲得する段階と、前記映像深度情報に基づいて、音響信号内の少なくとも1つの音響オブジェクトと基準点との間の距離を示す音響深度情報を獲得する段階と、前記音響深度情報に基づいて、前記少なくとも1つの音響オブジェクトに音響遠近感を付与する段階と、を含むものである。
前記音響深度情報を獲得する段階は、前記立体映像信号内で、前記基準点との距離が最も近い映像オブジェクトの深度値である最大深度値を獲得する段階と、前記最大深度値に基づいて、前記少なくとも1つの音響オブジェクトの音響深度値を獲得する段階と、を含んでもよい。
前記音響深度値を獲得する段階は、前記最大深度値が第1臨界値未満であるならば、前記音響深度値を最低値として決定し、前記最大深度値が第2臨界値以上であるならば、前記音響深度値を最大値として決定する段階を含んでもよい。
前記音響深度値を獲得する段階は、前記最大深度値が第1臨界値以上であって第2臨界値未満であるならば、前記最大深度値に比例して、前記音響深度値を決定する段階をさらに含んでもよい。
前記音響深度情報を獲得する段階は、前記少なくとも1つの映像オブジェクトの位置情報と前記音響信号とから、前記少なくとも1つの音響オブジェクトの位置情報を獲得する段階と、前記少なくとも1つの映像オブジェクトの位置と、前記少なくとも1つの音響オブジェクトの位置とが一致するか否かを判断する段階と、前記判断結果に基づいて、前記音響深度情報を獲得する段階と、を含んでもよい。
前記立体映像信号は、前記音響深度情報を獲得する段階は、前記立体映像信号内の複数個の区間別に平均深度値を獲得する段階と、前記平均深度値に基づいて、前記音響深度値を決定する段階と、を含んでもよい。
前記音響深度値を決定する段階は、前記平均深度値が第3臨界値未満であるならば、前記音響深度値を最低深度値として決定する段階を含んでもよい。前記音響深度値を決定する段階は、以前区間での平均深度値と、現在区間での平均深度値との差が第4臨界値未満であるならば、前記音響深度値を最低深度値として決定する段階を含んでもよい。
前記音響遠近感を付与する段階は、前記音響深度情報に基づいて、前記オブジェクトのパワーを調整する段階を含んでもよい。
前記遠近感を付与する段階は、前記音響深度情報に基づいて、前記音響オブジェクトが反射して生じる反射信号の利得及び遅延時間を調整する段階を含んでもよい。
前記音響遠近感を付与する段階は、前記音響深度情報に基づいて、前記音響オブジェクトの低域成分の大きさを調整する段階を含んでもよい。前記音響遠近感を付与する段階は、第1スピーカから出力される前記音響オブジェクトの位相と、第2スピーカから出力される前記音響オブジェクトの位相との差を調整することができる。
前記遠近感が付与された音響オブジェクトを、左側サラウンドスピーカ及び右側サラウンドスピーカを介して出力するか、あるいは左側フロントスピーカ及び右側フロントスピーカを介して出力する段階をさらに含んでもよい。
前記音響信号を利用し、スピーカの外郭に音像を正位させる段階をさらに含んでもよい。前記音響深度情報を獲得する段階は、前記少なくとも1つの映像オブジェクトそれぞれの大きさに基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を決定する段階を含んでもよい。
前記音響深度情報を獲得する段階は、前記少なくとも1つの映像オブジェクトの分布に基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を決定する段階を含んでもよい。
本発明の他の実施形態が有する1つの特徴は、立体映像信号内の少なくとも1つの映像オブジェクトと基準点との間の距離を示す映像深度情報を獲得する映像深度情報獲得部と、前記映像深度情報に基づいて、音響信号内の少なくとも1つの音響オブジェクトと基準点との間の距離を示す音響深度情報を獲得する音響深度情報獲得部と、前記音響深度情報に基づいて、前記少なくとも1つの音響オブジェクトに音響遠近感を付与する遠近感付与部と、を含むものである。
本発明の一実施形態による立体音響再生装置に係わるブロック図である。 図1に図示された本発明の一実施形態による音響深度情報獲得部に係わる詳細なブロック図である。 図1に図示された本発明の他の実施形態による音響深度情報獲得部に係わる詳細なブロック図である。 本発明の一実施形態による決定部で、音響深度値を決定するのに使われる所定の関数に係わる事例を示すグラフである。 本発明の一実施形態によるステレオ音響信号を利用して立体音響を提供する遠近感提供部に係わるブロック図である。 本発明の一実施形態による立体映像再生装置で、立体音響を提供する事例を示す図面である。 本発明の一実施形態による音響信号に基づいて、音響オブジェクトの位置を検出する方法に係わるフローチャートである。 本発明の一実施形態による音響信号から、音響オブジェクトの位置を検出する事例を示す図面である。 本発明の一実施形態による立体音響の再生方法に係わるフローチャートである。
以下、添付された図面を参照しつつ、本発明の望ましい実施形態について詳細に説明する。
まず、説明の便宜のために、本明細書で使われる用語を簡単に定義する。
映像オブジェクトは映像信号内に含まれた事物や、人、動物、植物等の被写体を指す。
音響オブジェクトは、音響信号に含まれた音響成分それぞれを指す。1つの音響信号には、多様な音響オブジェクトが含まれもする。例えば、オーケストラの公演実況を録音して生成された音響信号には、ギター、バイオリン、オーボエなどの多様な楽器から生じた多様な音響オブジェクトが含まれる。
音源は、音響オブジェクトを生成した対象(例えば、楽器、声帯)を指す。本明細書では、音響オブジェクトを実際に生成した対象と、ユーザが音響オブジェクトを生成したと認識する対象をいずれも音源という。一例として、ユーザが映画を視聴していて、リンゴがスクリーンからユーザの方で飛んでくるならば、リンゴが飛んでくるときに生じる音(音響オブジェクト)が音響信号に含まれるであろう。前記音響オブジェクトは、実際にリンゴが投げられて飛ぶ音を録音したものでもあり、あらかじめ録音された音響オブジェクトを単に再生するものでもある。しかし、いずれにせよユーザは、リンゴが前記音響オブジェクトを発生させたと認識するであろうから、リンゴも本明細書で定義する音源に該当する。
映像深度情報は、背景と基準位置との間の距離、及びオブジェクトと基準位置との間の距離を示す情報である。基準位置は、映像が出力されるディスプレイ装置の表面であってもよい。音響深度情報は、音響オブジェクトと基準位置との間の距離を示す情報である。具体的には、音響深度情報は、音響オブジェクトが生じた位置(音源の位置)と基準位置との間の距離を示す。
上述の例でのように、ユーザが映画を視聴していて、リンゴがスクリーンからユーザ側に飛んでくるならば、音源とユーザとの距離が近くなるであろう。リンゴが近づいてくるということを効果的に表現するためには、映像オブジェクトに対応する音響オブジェクトの発生位置がだんだんとユーザにさらに近づくと表現しなければならず、このために、情報が音響深度情報に含まれる。基準位置は、所定の音源の位置、スピーカの位置、ユーザの位置など、実施形態によって多様である。
音響遠近感は、ユーザが音響オブジェクトを介して感じる感覚の一種である。ユーザは、音響オブジェクトを聴取することにより、音響オブジェクトが生じた位置、すなわち、音響オブジェクトを生成した音源の位置を認識する。このとき、ユーザが認識する音源との距離感を音響遠近感という。
図1は、本発明の一実施形態による立体音響再生装置100に係わるブロック図を示している。本発明の一実施形態による立体音響再生装置100は、映像深度情報獲得部110、音響深度情報獲得部120及び遠近感提供部130を含む。
映像深度情報獲得部110は、映像信号内の少なくとも1つの映像オブジェクトと基準位置との間の距離を示す映像深度情報を獲得する。映像深度情報は、映像オブジェクトまたは背景を構成するそれぞれのピクセルの深度値を示す深度マップであってもよい。
音響深度情報獲得部120は、映像深度情報に基づいて、音響オブジェクトと基準位置との間の距離を示す音響深度情報を獲得する。映像深度情報を利用して、音響深度情報を生成する方法は多様なものがあり、以下では、音響深度情報を生成する2つの方法について説明する。しかし、本発明がこれらに限定されるものではない。
第1実施形態で、音響深度情報獲得部120は、音響オブジェクトそれぞれに係わる音響深度値を獲得することができる。音響深度情報獲得部120は、映像深度情報、映像オブジェクトに係わる位置情報及び音響オブジェクトに係わる位置情報を獲得し、これら位置情報に基づいて、映像オブジェクトと音響オブジェクトとをマッチングさせる。その後、映像深度情報及びマッチング情報に基づいて、音響深度情報を生成することができる。第1実施形態に係わる詳細な説明は、図2で後述する。
第2実施形態で、音響深度情報獲得部120は、音響信号を構成する音響区間別に音響深度値を獲得することができる。第2実施形態による場合、1つの区間内の音響信号は、同一の音響深度値を有する。すなわち、異なる音響オブジェクトについても、同一の音響深度値が適用されるのである。音響深度情報獲得部120は、映像信号を構成する映像区間それぞれについて映像深度値を獲得する。映像区間は、映像信号をフレーム単位で分割したり、あるいはシーン単位で分割したものであってもよい。音響深度情報獲得部120は、それぞれの映像区間での代表深度値(例えば、区間内の最大深度値、最小深度値または平均深度値)を獲得し、これを利用して、映像区間に対応する音響区間での音響深度値を決定する。第2実施形態に係わる詳細な説明は、図3で後述する。
遠近感提供部130は、音響深度情報に基づいて、ユーザが音響遠近感を感じるように音響信号を処理する。遠近感提供部130は、映像オブジェクトに対応する音響オブジェクトを抽出した後、音響オブジェクト別に音響遠近感を付与するか、あるいは音響信号に含まれたチャネル別に音響遠近感を付与するか、あるいは全体音響信号に対して音響遠近感を付与することができる。
遠近感提供部130は、ユーザに音響遠近感を効果的に感じさせるために、次の4種の作業を遂行する。しかし、遠近感提供部120で遂行する4種の作業は一例に過ぎず、本発明がこれらに限定されるものではない。
i)遠近感提供部130は、音響深度情報に基づいて、音響オブジェクトのパワーを調整する。音響オブジェクトがユーザ近くで生じるほど、音響オブジェクトのパワーが大きくなる。
ii)遠近感提供部130は、音響深度情報に基づいて、反射信号の利得及び遅延時間を調整する。ユーザは、障害物に反射しない直接音響信号と、障害物に反射して生成された反射音響信号とをいずれも聴取する。反射音響信号は、直接音響信号に比べて大きさが小さく、直接音響に比べて一定時間遅延されてユーザに逹するのが一般的である。特に、音響オブジェクトがユーザの近くで生じた場合には、反射音響信号は、直接音響信号に比べて、相当に遅く到着することになり、大きさもさらに多く縮小される。
iii)遠近感提供部130は、音響深度情報に基づいて、音響オブジェクトの低域成分を調整する。音響オブジェクトがユーザの近くで生じることになれば、ユーザは、低域成分を大きく認識することになる。
iv)遠近感提供部130は、音響深度情報に基づいて、音響オブジェクトの位相を調節する。第1スピーカから出力される音響オブジェクトの位相と、第2スピーカから出力される音響オブジェクトの位相との差が大きければ大きいほど、ユーザは、音響オブジェクトがブラーリング(blurring)されることにより、認識することになる。
遠近感提供部130の動作に係わる詳細な説明は、図5を参照して後述する。
図2は、図1に図示された本発明の一実施形態による音響深度情報獲得部120に係わる詳細なブロック図を示している。音響深度情報獲得部120は、第1位置獲得部210、第2位置獲得部220、マッチング部230及び決定部240を含む。
第1位置獲得部210は、映像深度情報に基づいて、映像オブジェクトの位置情報を獲得する。第1位置獲得部210は、映像信号内で左右または先後への動きが感知される映像オブジェクトに係わる位置情報のみを獲得することができる。
第1位置獲得部210は、次の数式(1)に基づいて、連続する映像フレームに係わる深度マップを比べて、深度値の変化が大きい座標を確認する。
Figure 2013523006
数式(1)でIは、フレームの番号を示し、x,yは、座標を示す。従って、I x,yは、I番目フレームの(x,y)座標での深度値を示す。
第1位置獲得部210は、すべての座標に対して、DIff x,y値が計算されれば、DIff x,y値が臨界値以上の座標を検索する。第1位置獲得部210は、DIff x,y値が臨界値以上である座標に対応する映像オブジェクトを、動きが感知される映像オブジェクトとして決定し、当該座標を映像オブジェクトの位置として決定する。
第2位置獲得部220は、音響信号に基づいて、音響オブジェクトに係わる位置情報を獲得する。第2位置獲得部220が音響オブジェクトに係わる位置情報を獲得する方法は、多様である。
一例として、第2位置獲得部220は、音響信号からプライマリ成分とアンビエンス成分とを分離し、プライマリ成分とアンビエンス成分とを比べて、音響オブジェクトの位置情報を獲得するか、あるいは音響信号のチャネル別パワーを比べて、音響オブジェクトの位置情報を獲得することができる。この方法による場合、音響オブジェクトの左右位置が分かる。
他の例として、第2位置獲得部220は、音響信号を複数個の区間に分割し、それぞれの区間で周波数帯域別パワーを計算し、周波数帯域別パワーに基づいて、共通周波数帯域を決定する。共通周波数帯域は、以前区間と現在区間とでのパワー変化が小さい周波数帯域を意味する。ディスプレイ装置の深度方向に、映像オブジェクトの位置が変われば、映像オブジェクトに対応する音響オブジェクトのパワーが変わる。この場合、音響オブジェクトに対応する周波数帯域のパワーが変わるので、周波数帯域別パワーの変化を観察し、音響オブジェクトの深度方向での位置が分かる。
マッチング部230は、映像オブジェクトに係わる位置情報と、音響オブジェクトに係わる位置情報とに基づいて、映像オブジェクトと音響オブジェクトとをマッチングする。マッチング部230は、映像オブジェクトの座標と、音響オブジェクトの座標との差が臨界値以内であるならば、映像オブジェクトと音響オブジェクトとがマッチングされると判断する。一方、映像オブジェクトの座標と、音響オブジェクトの座標との差が臨界値以上であるならば、映像オブジェクトと音響オブジェクトとがマッチングされないと判断する。
決定部240は、マッチング部230の判断に基づいて、音響オブジェクトに係わる音響深度値を決定する。一例として、マッチングされる映像オブジェクトが存在すると判断された音響オブジェクトは、映像オブジェクトの深度値によって音響深度値を決定し、マッチングされる映像オブジェクトが存在しないと判断された音響オブジェクトは、音響深度値を最小値として決定する。音響深度値が最小値として決定されれば、遠近感提供部130は、音響オブジェクトに対して音響遠近感を付与しない。
決定部240は、映像オブジェクトと音響オブジェクトとの位置が一致する場合にも、所定の例外状況では、音響オブジェクトに対して音響遠近感を付与しないこともある。
一例として、映像オブジェクトの個数が一定数以上であり、映像オブジェクトが特定空間に集中しているのであれば、決定部240は、映像オブジェクトに対応する音響オブジェクトに対して音響遠近感を付与しないこともある。映像フレーム内のほとんどのオブジェクトが、スクリーン上に飛び出す場合には、ユーザに立体効果を強調する必要がないから、一部オブジェクト(全体オブジェクトではない)が、スクリーン上に飛び出す場合にのみ、対応する音響オブジェクトに対して音響遠近感を付与する。
他の例として、映像オブジェクトの大きさが臨界値以下であるならば、決定部240は、映像オブジェクトに対応する音響オブジェクトに対して音響遠近感を付与しないこともある。大きさが小さすぎる映像オブジェクトは、ユーザが立体感を感じるのに及ぼす影響力が小さいと見られるので、当該音響オブジェクトに対しては、音響遠近感を付与しない。
図3は、図1に図示された本発明の他の実施形態による音響深度情報獲得部120に係わる詳細なブロック図を示している。
本発明の他の実施形態による音響深度情報獲得部120は、区間深度情報獲得部310及び決定部320を含む。
区間深度情報獲得部310は、映像深度情報に基づいて、映像区間別深度情報を獲得する。映像信号は、複数個の区間に区分されもする。一例として、映像信号は、場面が転換されるシーン単位で区分されるか、あるいは映像フレーム単位で区分されるか、あるいはGOP(group of picture)単位で区分されもする。
区間深度情報獲得部310は、それぞれの区間に対応する映像深度値を獲得する。区間深度情報獲得部310は、次の数式(2)に基づいて、それぞれの区間に対応する映像深度値を獲得することができる。
Figure 2013523006
数式(2)のI x,yは、I番目フレームのx,y座標に位置したピクセルが示す深度値を意味する。Depthは、I番目フレームに対応する映像深度値であり、I番目フレーム内のすべてのピクセルの深度値を平均して獲得する。
数式(2)は、一実施形態に過ぎず、各区間内の最大深度値、最小深度値、以前区間との変化が最大であるピクセルの深度値などを、区間の代表深度値として決定することができる。
決定部320は、各区間の代表深度値に基づいて、映像区間に対応する音響区間に係わる音響深度値を決定する。決定部320は、区間の代表深度値を入力にする所定の関数によって音響深度値を決定する。決定部320は、入力値と出力値とが正比例する関数、入力値によって出力値が指数的に増加する関数を所定の関数として使うことができる。他の実施形態では、入力値の範囲によって異なる関数を、所定の関数として使うことができる。決定部320が音響深度値を決定するために使う所定の関数に係わる事例は、図4で後述する。
決定部320は、音響区間に音響遠近感を付与する必要がないと判断されれば、当該音響区間での音響深度値を最小値として決定することができる。
決定部320は、次の数式(3)によって、隣接するI番目映像フレームと、I+1番目映像フレームとでの深度値の差を獲得することができる。
Figure 2013523006
Diff_Depthは、I番目フレームでの平均映像深度値と、I+1番目での平均映像深度値との差を示す。
決定部320は、次の数式(4)によって、I番目映像フレームに対応する音響区間で、音響遠近感を付与するか否かを決定する。
Figure 2013523006
R_Flagは、I番目フレームに対応する音響区間に、音響遠近感を付与するか否かを示すフラグである。R_Flagが0の値を有せば、当該音響区間で音響遠近感を付与し、R_Flagが1の値を有せば、当該音響区間に音響遠近感を付与しない。
以前フレームでの平均映像深度値と、次のフレームでの平均映像深度値との差が大きい場合には、次のフレームからスクリーン外に飛び出す映像オブジェクトの存在する確率が高いと判断することができる。従って、決定部320は、Diff_Depthが臨界値以上である場合にのみ、映像フレームに対応する音響区間に音響遠近感を付与するように決定することができる。
決定部320は、次の数式(5)によって、I番目映像フレームに対応する音響区間に、音響遠近感を付与するか否かを決定する。
Figure 2013523006
R_Flagは、I番目フレームに対応する音響区間に、音響遠近感を付与するか否かを示すフラグである。R_Flagが0の値を有せば、当該音響区間で音響遠近感を付与し、R_Flagが1の値を有せば、当該音響区間で音響遠近感を付与しない。
以前フレームと次のフレームとの平均映像深度値の差が大きいといっても、次のフレーム内の平均映像深度値が臨界値以下であるならば、次のフレームには、スクリーン外に飛び出す映像オブジェクトが存在しない可能性が高い。従って、決定部320は、Depthが臨界値以上(例えば、図4では、28)である場合にのみ、映像フレームに対応する音響区間で音響遠近感を付与するように決定することができる。
図4は、本発明の一実施形態による決定部240,320で、音響深度値を決定するのに使われる所定の関数に係わる事例を示している。
図4に図示された所定の関数から、横軸は、映像深度値を示し、縦軸は、音響深度値を示す。映像深度値は、0〜255までの値を有することができる。
映像深度値が0以上28未満である場合には、音響深度値を最小値として決定する。音響深度値が最小値に設定されれば、音響オブジェクトまたは音響区間には、音響遠近感が付与されない。
映像深度値が28ないし124未満である場合には、映像深度値の変化量による音響深度値の変化量が一定(すなわち、傾きが一定)である。実施形態によっては、映像深度値による音響深度値が線形的に変化せずに、指数的やログ的に変わることがある。
他の実施形態では、映像深度値が28ないし56未満である場合には、音響深度値を、ユーザが自然な立体音響を聴取することができる固定された音響深度値(例えば、58)として決定することができる。
映像深度値が124以上である場合には、音響深度値を最大値として決定する。
図5は、本発明の一実施形態によるステレオ音響信号を利用し、立体音響を提供する遠近感提供部130に係わるブロック図を示している。
もし入力信号が多チャネル音響信号であるならば、ステレオ信号でダウンミキシングを遂行した後、本発明を適用することができる。
FFT(Fast Fourie Transform)部510は、入力信号に対して高速フーリエ変換を遂行する。
IFFT 520は、フーリエ変換された信号に対して、逆フーリエ変換を遂行する。
センター信号抽出部530は、ステレオ信号からセンターチャネルに該当する信号であるセンター信号を抽出する。センター信号抽出部530は、ステレオ信号で、相関度が高い信号をセンターチャネル信号として抽出する。図5では、センターチャネル信号に対して音響遠近感を付与すると仮定した。しかし、センターチャネル信号ではない左右フロントチャネル信号、または左右サラウンドチャネル信号のような他のチャネル信号に対して音響遠近感を付与するか、あるいは特定音響オブジェクトに対して音響遠近感を付与するか、あるいは全体音響信号に対して音響遠近感を付与することもできる。
音場拡張部(sound stage extension)550は、音場を拡張する。音場拡張部550は、ステレオ信号に時間差や位相差を人為的に付与し、音像をスピーカより外側に正位させる。
音響深度情報獲得部560は、映像深度情報に基づいて、音響深度情報を獲得する。
パラメーター計算部570は、音響深度情報に基づいて、音響オブジェクトに音響遠近感を提供するのに必要な制御パラメータ値を決定する。
レベル制御部571は、入力信号の大きさを制御する。位相制御部572は、入力信号の位相を調整する。反射効果提供部573は、入力信号が壁などによって反射して生じる反射信号をモデリングする。近距離効果提供部574は、ユーザと隣接した距離で生じた音響信号をモデリングする。ミキシング部580は、一つ以上の信号をミキシングしてスピーカに出力する。
以下では、経時的に、立体音響再生装置500の動作について説明する。
まず、多チャネル音響信号が入力される場合、ダウンミキサ(図示せず)を介して、ステレオ信号に変換する。FFT 510は、ステレオ信号に対して、高速フーリエ変換を遂行した後、センター抽出部520に出力する。
センター信号抽出部520は、変換されたステレオ信号を比べ、相関度の高い信号をセンターチャネル信号として出力する。
音響深度情報獲得部560では、映像深度情報に基づいて、音響深度情報を獲得する。音響深度情報獲得部560が音響深度情報を獲得する事例は、図2及び図3に図示された通りである。具体的には、音響深度情報獲得部560は、音響オブジェクトの位置と、映像オブジェクトの位置とを比べて、音響深度情報を獲得するか、あるいは映像信号内の区間別深度情報を利用し、音響深度情報を獲得することができる。
パラメーター計算部570は、インデックス値に基づいて、音響遠近感を付与するためのモジュールに適用するパラメーターを計算する。
位相制御部571は、センターチャネル信号を2つの信号にコピーした後、計算されたパラメーターによって、コピーされた信号の位相を調節する。位相の異なる音響信号を左側スピーカと右側スピーカとで再生すれば、ブラーリング現象が生じる。ブラーリング現象がはなはだしければはなはだしいほど、ユーザが音響オブジェクトが生じた位置を正確に認識し難い。音響オブジェクトの発生位置がユーザに近接するほど(または、発生位置がユーザに早く近づくほど)、位相制御部571は、コピーされた信号の位相差をさらに大きく設定するのである。位相が調整されたコピー信号は、IFFT 520を経て、反射効果提供部573に伝達する。
反射効果提供部573は、反射信号をモデリングする。音響オブジェクトがユーザから遠く離れたところで発生すれば、壁などによって反射せずに、ユーザに直接伝達する直接音響と、壁などによって反射して生成された反射音響との大きさが類似しており、直接音響と反射音響とがユーザに到着する時間差がほとんどない。しかし、音響オブジェクトがユーザの近くで発生すれば、直接音響と反射音響との大きさが異なり、直接音響と反射音響とがユーザに到着する時間差が大きい。従って、音響オブジェクトが、ユーザから近い距離で生じるほど、反射効果提供部573は、反射信号の利得値をさらに大きく低減させ、時間遅延をさらに増大させる。反射効果提供部573は、反射信号が考慮されたセンターチャネル信号を近距離効果提供部574に伝送する。
近距離効果提供部574は、パラメーター計算部570で計算されたパラメーター値に基づいて、ユーザと接した距離で生じた音響オブジェクトをモデリングする。音響オブジェクトがユーザと近い位置で発生すれば、低域成分が目立つ。近距離効果提供部574は、オブジェクトの生じた地点がユーザと近ければ近いほど、センター信号の低域成分を増加させる。
一方、ステレオ入力信号を受信した音場拡張部550は、スピーカの外側に音像が正位されるように、ステレオ信号を処理する。スピーカ間の位置が適当に遠くなれば、ユーザは、現場感ある立体音響を聴取することができる。
音場拡張部550は、ステレオ信号をワイドニング・ステレオ信号に変換する。音場拡張部は550は、左/右バイノーラル合成(binaural synthesis)とクロストーク・キャンセラとをコンボルーションしたワイドニング・フィルタと、ワイドニング・フィルタと左/右ダイレクト・フィルタとをコンボルーションした1つのパノラマ・フィルタと、を含んでもよい。このとき、ワイドフィルタは、ステレオ信号について、所定の位置で測定した頭部伝達関数(HRTF)を基に、任意の位置に係わる仮想音源に形成し、頭部伝達関数を反映したフィルタ係数に基づいて、仮想音源のクロストークをキャンセリングする。左右ダイレクト・フィルタは、本来のステレオ信号と、クロストーク・キャンセリングされた仮想音源との利得及び遅延のような信号特性を調整する。
レベル制御部560は、パラメーター計算部570で計算された音響深度値に基づいて、音響オブジェクトのパワーサイズを調整する。レベル制御部560は、音響オブジェクトがユーザの近くで生じるほど、音響オブジェクトの大きさを増加させるのである。
ミキシング部580は、レベル制御部560から送信されたステレオ信号と、近距離効果提供部574から送信されたセンター信号とを結合してスピーカに出力する。
図6は、本発明の一実施形態による立体映像再生装置100で、立体音響を提供する事例を示している。図6の(a)は、本発明の一実施形態による立体音響オブジェクトが動作しない場合を示している。
ユーザは、一つ以上のスピーカを介して、音響オブジェクトを聴取する。ユーザが1つのスピーカを利用して、モノ信号を再生する場合には、立体感を感じることができず、2以上のスピーカを利用して、ステレオ信号を再生する場合には、立体感を感じることができる。
図6の(b)は、本発明の一実施形態による音響深度値が「0」である音響オブジェクトを再生する場合を示している。図4で、音響深度値は「0」から「1」の値を有すると仮定する。ユーザにさらに近いところで生じると表現しなければならない音響オブジェクトであるほど、音響深度値の値が大きくなる。
音響オブジェクトの音響深度値が「0」であるので、音響オブジェクトに遠近感を付与する作業を遂行しない。ただし、スピーカの外側に音像が正位されることにより、ユーザがステレオ信号を介して、良好に立体感を感じることができる。実施形態によっては、スピーカの外側に音像を正位させる技術を「ワイドニング」という。
一般的には、ステレオ信号を再生するためには、複数個のチャネルの音響信号が必要である。従って、モノ信号が入力される場合には、アップミキシングを介して、2以上のチャネルに該当する音響信号を生成する。
ステレオ信号は、左側スピーカを介して、第1チャネルの音響信号を再生し、右側スピーカを介して、第2チャネルの音響を再生する。ユーザは、異なる位置で生じる2以上の音響を聴取することにより、立体感を感じることができる。
しかし、左側スピーカと右側スピーカとが過度に接して位置すれば、ユーザは、同一の位置で音響が生じると認識することになるので、立体感を感じることができない。その場合、実際スピーカの位置ではないスピーカの外側で音響が生じるように認識されるように音響信号を処理する。
図6の(c)は、本発明の一実施形態による音響深度値が「0.3」である音響オブジェクトを再生する場合を示している。
音響オブジェクトの音響深度値が0より大きいから、ワイドニング技術と共に、音響オブジェクトに、音響深度値「0.3」に対応する遠近感を付与する。従って、ユーザは、図3の(b)に比べて、音響オブジェクトがユーザにさらに近いところで生じたと感じることができる。
例えば、ユーザが三次元映像データを視聴しており、このとき、映像オブジェクトがスクリーン外に飛び出すように表現されたと仮定する。図6の(c)では、映像オブジェクトに対応する音響オブジェクトに遠近感を付与し、音響オブジェクトがユーザ側に近づくように処理する。ユーザは、視覚的に映像オブジェクトが飛び出すことを感じつつ、音響オブジェクトがユーザに近づくように感じることになるので、さらに現実的な立体感を感じることになる。
図6の(d)は、本発明の一実施形態による音響深度値が「1」である音響オブジェクトを再生する場合を示している。
音響オブジェクトの音響深度値が0より大きいから、ワイドニング技術と共に、音響オブジェクトに、音響深度値「1」に対応する遠近感を付与する。図6の(c)での音響オブジェクトに比べても、図6の(d)での音響オブジェクトの音響深度値が大きいから、ユーザは、図6の(c)に比べて、音響オブジェクトがユーザにもっと近いところで生じたと感じる。
図7は、本発明の一実施形態による音響信号に基づいて、音響オブジェクトの位置を検出する方法に係わるフローチャートである。段階S710では、音響信号を構成する複数個の区間それぞれについて、周波数帯域別パワーを計算する。段階S720では、周波数帯域別パワーに基づいて、共通周波数帯域を決定する。
複数個の以前区間で、パワー変化が臨界値以下である周波数帯域を、共通周波数帯域として決定することができる。このとき、パワーが小さい周波数帯域は、ノイズのような意味のない音響オブジェクトに該当するので、パワーが小さい周波数帯域は、共通周波数帯域から除外される。例えば、パワーが大きい順に、所定個数の周波数帯域を選定した後、選定された周波数帯域のうち、共通周波数帯域を決定することができる。
段階S730では、以前区間での共通周波数帯域のパワーと、現在区間での共通周波数帯域のパワーとを比べて、比較結果に基づいて、音響深度値を決定する。以前区間での共通周波数帯域のパワーに比べて、現在区間での共通周波数帯域のパワーがさらに大きければ、共通周波数帯域に該当する音響オブジェクトが、ユーザにさらに近接した位置で生じたと判断する。
図8は、本発明の一実施形態による音響信号から、音響オブジェクトの位置を検出する事例を示している。図8の(a)は、時間軸で複数個の区間に区分された音響信号を示す。図8の(b)ないし図8の(d)は、第1区間ないし第3区間での周波数帯域別パワーを示している。図8の(b)ないし図8の(d)で、第1区間801と第2区間802は、以前区間であり、第3区間803が現在区間である。
図8の(b)及び図8の(c)を参照すれば、第1区間801ないし第2区間802で、3,000〜4,000Hz周波数帯域、4,000〜5,000Hz周波数帯域、5,000〜6,000Hz周波数帯域のパワーが類似している。従って、3,000〜4,000HZ周波数帯域、4,000〜5,000HZ周波数帯域、5,000〜6,000HZ周波数帯域が共通周波数帯域として決定される。
図8の(c)及び図8の(d)を参照すれば、第2区間802で、3,000〜4,000HZ周波数帯域、4,000〜5,000HZ周波数帯域のパワーと、第3区間803で、3,000〜4,000HZ周波数帯域、4,000〜5,000HZ周波数帯域のパワーは、類似している。従って、3,000〜4,000HZ周波数帯域、4,000〜5,000HZ周波数帯域に該当する音響オブジェクトの音響深度値は、「0」に決定される。
しかし、第2区間802で、5,000〜6,000HZ周波数帯域のパワーに比べ、第3区間803で、5,000〜6,000HZ周波数帯域のパワーは、大きく増大した。従って、5,000〜6,000HZ周波数帯域に該当する音響オブジェクトの音響深度値は、「0」以上に決定される。実施形態によっては、音響オブジェクトの音響深度値をさらに精巧に決定するために、映像深度マップを参照することもできる。
例えば、第3区間で、5,000〜6,000HZ周波数帯域のパワーが、第2区間802に比べて大きく増大した。場合によっては、5,000〜6,000HZ周波数帯域に対応する音響オブジェクトの生じた位置が、ユーザに近くなるのではなく、同一の位置で、パワーの大きさだけ増大した場合でもある。このとき、映像深度マップを参照し、第3区間803に対応する映像フレームから、スクリーン外に飛び出す映像オブジェクトが存在するとしたら、5,000〜6,000HZ周波数帯域に該当する音響オブジェクトが、映像オブジェクトに対応する確率が高いのである。その場合、音響オブジェクトの生じた位置が、ユーザにだんだんと近づくことが望ましいので、音響オブジェクトの音響深度値を「0」以上に設定する。一方、第3区間803に対応する映像フレームから、スクリーン外に飛び出す映像オブジェクトが存在するのでなければ、音響オブジェクトは、同一の位置で、パワーだけが増大したと見ることができるので、音響オブジェクトの音響深度値を「0」に設定することができる。
図9は、本発明の一実施形態による立体音響の再生方法に係わるフローチャートである。段階S910では、映像深度情報を獲得する。映像深度情報は、立体映像信号内の少なくとも1つの映像オブジェクト及び背景と、基準点との間の距離を示している。段階S920では、音響深度情報を獲得する。音響深度情報は、音響信号内の少なくとも1つの音響オブジェクトと、基準点との間の距離を示している。段階S930では、音響深度情報に基づいて、少なくとも1つの音響オブジェクトに音響遠近感を付与する。
一方、上述の本発明の実施形態は、コンピュータで実行されるプログラムで作成可能であり、コンピュータで読み取り可能な記録媒体を利用し、前記プログラムを動作させる汎用デジタルコンピュータで具現されもする。
前記コンピュータで読み取り可能な記録媒体は、マグネチック記録媒体(例えば、ROM(read-only memory)、フロッピー(登録商標)ディスク、ハードディスクなど)、光学的判読媒体(例えば、CD−ROM、DVD(digital versatile disc))及びキャリアウエーブ(例えば、インターネットを介する送信)のような記録媒体を含む。
以上、本発明について、その望ましい実施形態を中心に説明した。本発明が属する技術分野で当業者であるならば、本発明が本発明の本質的な特性から外れない範囲で変形された形態で具現される可能性があることを理解することができるであろう。従って、開示された実施形態は、限定的な観点ではなく、説明的な観点から考慮されなければならない。本発明の範囲は、前述の説明ではなく、特許請求の範囲に示されており、それと同等な範囲内にあるあらゆる差異は、本発明に含まれたものであると解釈されなければならないのである。

Claims (21)

  1. 映像信号内の少なくとも1つの映像オブジェクトと基準位置との間の距離を示す映像深度情報を獲得する段階と、
    前記映像深度情報に基づいて、音響信号内の少なくとも1つの音響オブジェクトと基準位置との間の距離を示す音響深度情報を獲得する段階と、
    前記音響深度情報に基づいて、前記少なくとも1つの音響オブジェクトに音響遠近感を付与する段階と、を含むことを特徴とする立体音響の再生方法。
  2. 前記音響深度情報を獲得する段階は、
    前記映像信号を構成する映像区間それぞれに係わる最大深度値を獲得する段階と、
    前記最大深度値に基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を獲得する段階と、を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  3. 前記音響深度値を獲得する段階は、
    前記最大深度値が第1臨界値未満であるならば、前記音響深度値を最低値として決定し、前記最大深度値が第2臨界値以上であるならば、前記音響深度値を最大値として決定する段階を含むことを特徴とする請求項2に記載の立体音響の再生方法。
  4. 前記音響深度値を獲得する段階は、
    前記最大深度値が第1臨界値以上であって第2臨界値未満であるならば、前記最大深度値に比例して、前記音響深度値を決定する段階をさらに含むことを特徴とする請求項3に記載の立体音響の再生方法。
  5. 前記音響深度情報を獲得する段階は、
    前記少なくとも1つの映像オブジェクトに係わる位置情報と前記音響信号とから、前記少なくとも1つの音響オブジェクトに係わる位置情報を獲得する段階と、
    前記少なくとも1つの映像オブジェクトの位置と、前記少なくとも1つの音響オブジェクトの位置とが一致するか否かを判断する段階と、
    前記判断結果に基づいて、前記音響深度情報を獲得する段階と、を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  6. 前記音響深度情報を獲得する段階は、
    前記映像信号を構成する映像区間それぞれに係わる平均深度値を獲得する段階と、
    前記平均深度値に基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を獲得する段階と、を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  7. 前記音響深度値を決定する段階は、
    前記平均深度値が第3臨界値未満であるならば、前記音響深度値を最低値として決定する段階を含むことを特徴とする請求項6に記載の立体音響の再生方法。
  8. 前記音響深度値を決定する段階は、
    以前区間の平均深度値と、現在区間の平均深度値との差が第4臨界値未満であるならば、前記音響深度値を最低値として決定する段階を含むことを特徴とする請求項6に記載の立体音響の再生方法。
  9. 前記音響遠近感を付与する段階は、
    前記音響深度情報に基づいて、前記音響オブジェクトのパワーを調整する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  10. 前記遠近感を付与する段階は、
    前記音響深度情報に基づいて、前記音響オブジェクトが反射して生じる反射信号の利得及び遅延時間を調整する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  11. 前記音響遠近感を付与する段階は、
    前記音響深度情報に基づいて、前記音響オブジェクトの低域成分の大きさを調整する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  12. 記音響遠近感を付与する段階は、
    第1スピーカから出力される前記音響オブジェクトの位相と、第2スピーカから出力される前記音響オブジェクトの位相との差を調整する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  13. 前記遠近感が付与された音響オブジェクトを、左側サラウンドスピーカ及び右側サラウンドスピーカを介して出力するか、あるいは左側フロントスピーカ及び右側フロントスピーカを介して出力する段階をさらに含むことを特徴とする請求項1に記載の立体音響の再生方法。
  14. 前記方法は、
    前記音響信号を利用し、スピーカの外郭に音像を正位させる段階をさらに含むことを特徴とする請求項1に記載の立体音響の再生方法。
  15. 前記音響深度情報を獲得する段階は、
    前記少なくとも1つの映像オブジェクトそれぞれの大きさに基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を決定する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  16. 前記音響深度情報を獲得する段階は、
    前記少なくとも1つの映像オブジェクトの分布に基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を決定する段階を含むことを特徴とする請求項1に記載の立体音響の再生方法。
  17. 映像信号内の少なくとも1つの映像オブジェクトと基準位置との間の距離を示す映像深度情報を獲得する映像深度情報獲得部と、
    前記映像深度情報に基づいて、音響信号内の少なくとも1つの音響オブジェクトと基準位置との間の距離を示す音響深度情報を獲得する音響深度情報獲得部と、
    前記音響深度情報に基づいて、前記少なくとも1つの音響オブジェクトに音響遠近感を付与する遠近感付与部と、を含むことを特徴とする立体音響再生装置。
  18. 前記音響深度情報獲得部は、
    前記映像信号を構成する映像区間それぞれに係わる最大深度値を獲得し、前記最大深度値に基づいて、前記少なくとも1つの音響オブジェクトに係わる音響深度値を獲得することを特徴とする請求項17に記載の立体音響再生装置。
  19. 前記音響深度情報獲得部は、
    前記最大深度値が第1臨界値未満であるならば、前記音響深度値を最低値として決定し、前記最大深度値が第2臨界値以上であるならば、前記音響深度値を最大値として決定することを特徴とする請求項18に記載の立体音響の再生装置。
  20. 前記音響深度値を獲得する段階は、
    前記最大深度値が第1臨界値以上であって第2臨界値未満であるならば、前記最大深度値に比例して、前記音響深度値を決定することを特徴とする請求項18に記載の立体音響の再生装置。
  21. 請求項1ないし請求項16のうち、いずれか一項に記載の方法を具現するためのプログラムが記録されたコンピュータで読み取り可能な記録媒体。
JP2012558085A 2010-03-19 2011-03-17 立体音響の再生方法及びその装置 Active JP5944840B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US31551110P 2010-03-19 2010-03-19
US61/315,511 2010-03-19
KR10-2011-0022886 2011-03-15
KR1020110022886A KR101844511B1 (ko) 2010-03-19 2011-03-15 입체 음향 재생 방법 및 장치
PCT/KR2011/001849 WO2011115430A2 (ko) 2010-03-19 2011-03-17 입체 음향 재생 방법 및 장치

Publications (2)

Publication Number Publication Date
JP2013523006A true JP2013523006A (ja) 2013-06-13
JP5944840B2 JP5944840B2 (ja) 2016-07-05

Family

ID=44955989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012558085A Active JP5944840B2 (ja) 2010-03-19 2011-03-17 立体音響の再生方法及びその装置

Country Status (12)

Country Link
US (2) US9113280B2 (ja)
EP (2) EP3026935A1 (ja)
JP (1) JP5944840B2 (ja)
KR (1) KR101844511B1 (ja)
CN (2) CN105933845B (ja)
AU (1) AU2011227869B2 (ja)
BR (1) BR112012023504B1 (ja)
CA (1) CA2793720C (ja)
MX (1) MX2012010761A (ja)
MY (1) MY165980A (ja)
RU (1) RU2518933C2 (ja)
WO (1) WO2011115430A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530952A (ja) * 2015-09-04 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオ画像に関連付けられているオーディオ信号を処理する方法および装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101717787B1 (ko) * 2010-04-29 2017-03-17 엘지전자 주식회사 디스플레이장치 및 그의 음성신호 출력 방법
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
EP2464127B1 (en) * 2010-11-18 2015-10-21 LG Electronics Inc. Electronic device generating stereo sound synchronized with stereoscopic moving picture
JP2012119738A (ja) * 2010-11-29 2012-06-21 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP5776223B2 (ja) * 2011-03-02 2015-09-09 ソニー株式会社 音像制御装置および音像制御方法
KR101901908B1 (ko) 2011-07-29 2018-11-05 삼성전자주식회사 오디오 신호 처리 방법 및 그에 따른 오디오 신호 처리 장치
WO2013184215A2 (en) * 2012-03-22 2013-12-12 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for simulating sound propagation in large scenes using equivalent sources
EP2871842A4 (en) * 2012-07-09 2016-06-29 Lg Electronics Inc APPARATUS AND METHOD FOR PROCESSING IMPROVED 3-DIMENSIONAL AUDIO / VIDEO CONTENT (3D)
TW201412092A (zh) * 2012-09-05 2014-03-16 Acer Inc 多媒體處理系統及音訊信號處理方法
CN103686136A (zh) * 2012-09-18 2014-03-26 宏碁股份有限公司 多媒体处理系统及音频信号处理方法
JP6243595B2 (ja) * 2012-10-23 2017-12-06 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
JP6055651B2 (ja) * 2012-10-29 2016-12-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理制御方法、および情報処理装置
KR102484214B1 (ko) 2013-07-31 2023-01-04 돌비 레버러토리즈 라이쎈싱 코오포레이션 공간적으로 분산된 또는 큰 오디오 오브젝트들의 프로세싱
EP3806498B1 (en) 2013-09-17 2023-08-30 Wilus Institute of Standards and Technology Inc. Method and apparatus for processing audio signal
CN105874819B (zh) 2013-10-22 2018-04-10 韩国电子通信研究院 生成用于音频信号的滤波器的方法及其参数化装置
KR101627661B1 (ko) 2013-12-23 2016-06-07 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법, 이를 위한 파라메터화 장치 및 오디오 신호 처리 장치
CN106105269B (zh) 2014-03-19 2018-06-19 韦勒斯标准与技术协会公司 音频信号处理方法和设备
CN108307272B (zh) 2014-04-02 2021-02-02 韦勒斯标准与技术协会公司 音频信号处理方法和设备
US10679407B2 (en) 2014-06-27 2020-06-09 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for modeling interactive diffuse reflections and higher-order diffraction in virtual environment scenes
US9977644B2 (en) 2014-07-29 2018-05-22 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for conducting interactive sound propagation and rendering for a plurality of sound sources in a virtual environment scene
US10187737B2 (en) 2015-01-16 2019-01-22 Samsung Electronics Co., Ltd. Method for processing sound on basis of image information, and corresponding device
KR102342081B1 (ko) * 2015-04-22 2021-12-23 삼성디스플레이 주식회사 멀티미디어 장치 및 이의 구동 방법
CN106303897A (zh) 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
CN106060726A (zh) * 2016-06-07 2016-10-26 微鲸科技有限公司 全景扬声系统及全景扬声方法
US10785445B2 (en) * 2016-12-05 2020-09-22 Hewlett-Packard Development Company, L.P. Audiovisual transmissions adjustments via omnidirectional cameras
CN108347688A (zh) * 2017-01-25 2018-07-31 晨星半导体股份有限公司 根据单声道音频数据提供立体声效果的影音处理方法及影音处理装置
US10248744B2 (en) 2017-02-16 2019-04-02 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for acoustic classification and optimization for multi-modal rendering of real-world scenes
CN107734385B (zh) * 2017-09-11 2021-01-12 Oppo广东移动通信有限公司 视频播放方法、装置及电子装置
CN107613383A (zh) * 2017-09-11 2018-01-19 广东欧珀移动通信有限公司 视频音量调节方法、装置及电子装置
EP3713255A4 (en) 2017-11-14 2021-01-20 Sony Corporation SIGNAL PROCESSING DEVICE AND METHOD AND PROGRAM
CN111434126B (zh) 2017-12-12 2022-04-26 索尼公司 信号处理装置和方法以及程序
CN108156499A (zh) * 2017-12-28 2018-06-12 武汉华星光电半导体显示技术有限公司 一种语音图像采集编码方法及装置
CN109327794B (zh) * 2018-11-01 2020-09-29 Oppo广东移动通信有限公司 3d音效处理方法及相关产品
CN110572760B (zh) * 2019-09-05 2021-04-02 Oppo广东移动通信有限公司 电子设备及其控制方法
CN111075856B (zh) * 2019-12-25 2023-11-28 泰安晟泰汽车零部件有限公司 一种车用离合器

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128816A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2009278381A (ja) * 2008-05-14 2009-11-26 Nippon Hoso Kyokai <Nhk> 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9107011D0 (en) * 1991-04-04 1991-05-22 Gerzon Michael A Illusory sound distance control method
JPH06105400A (ja) * 1992-09-17 1994-04-15 Olympus Optical Co Ltd 3次元空間再現システム
JPH06269096A (ja) 1993-03-15 1994-09-22 Olympus Optical Co Ltd 音像制御装置
JP3528284B2 (ja) * 1994-11-18 2004-05-17 ヤマハ株式会社 3次元サウンドシステム
CN1188586A (zh) * 1995-04-21 1998-07-22 Bsg实验室股份有限公司 产生三维声象的声频系统
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
JP4086336B2 (ja) * 1996-09-18 2008-05-14 富士通株式会社 属性情報提供装置及びマルチメディアシステム
JPH11220800A (ja) 1998-01-30 1999-08-10 Onkyo Corp 音像移動方法及びその装置
CN1151704C (zh) 1998-01-23 2004-05-26 音响株式会社 声像定位装置和方法
JP2000267675A (ja) * 1999-03-16 2000-09-29 Sega Enterp Ltd 音響信号処理装置
KR19990068477A (ko) * 1999-05-25 1999-09-06 김휘진 입체음향시스템및그운용방법
RU2145778C1 (ru) 1999-06-11 2000-02-20 Розенштейн Аркадий Зильманович Система формирования изображения и звукового сопровождения информационно-развлекательного сценического пространства
EP1277341B1 (en) 2000-04-13 2004-06-16 Qvc, Inc. System and method for digital broadcast audio content targeting
US6961458B2 (en) * 2001-04-27 2005-11-01 International Business Machines Corporation Method and apparatus for presenting 3-dimensional objects to visually impaired users
US6829018B2 (en) * 2001-09-17 2004-12-07 Koninklijke Philips Electronics N.V. Three-dimensional sound creation assisted by visual information
RU23032U1 (ru) 2002-01-04 2002-05-10 Гребельский Михаил Дмитриевич Система передачи изображения со звуковым сопровождением
RU2232481C1 (ru) 2003-03-31 2004-07-10 Волков Борис Иванович Цифровой телевизор
US7818077B2 (en) * 2004-05-06 2010-10-19 Valve Corporation Encoding spatial data in a multi-channel sound file for an object in a virtual environment
KR100677119B1 (ko) 2004-06-04 2007-02-02 삼성전자주식회사 와이드 스테레오 재생 방법 및 그 장치
CA2578797A1 (en) * 2004-09-03 2006-03-16 Parker Tsuhako Method and apparatus for producing a phantom three-dimensional sound space with recorded sound
KR100688198B1 (ko) * 2005-02-01 2007-03-02 엘지전자 주식회사 음향 재생 수단을 구비한 단말기 및 입체음향 재생방법
KR100619082B1 (ko) * 2005-07-20 2006-09-05 삼성전자주식회사 와이드 모노 사운드 재생 방법 및 시스템
EP1784020A1 (en) * 2005-11-08 2007-05-09 TCL & Alcatel Mobile Phones Limited Method and communication apparatus for reproducing a moving picture, and use in a videoconference system
KR100922585B1 (ko) * 2007-09-21 2009-10-21 한국전자통신연구원 실시간 e러닝 서비스를 위한 입체 음향 구현 방법 및 그시스템
KR100934928B1 (ko) 2008-03-20 2010-01-06 박승민 오브젝트중심의 입체음향 좌표표시를 갖는 디스플레이장치
CN101593541B (zh) * 2008-05-28 2012-01-04 华为终端有限公司 一种与音频文件同步播放图像的方法及媒体播放器
CN101350931B (zh) * 2008-08-27 2011-09-14 华为终端有限公司 音频信号的生成、播放方法及装置、处理系统
JP6105400B2 (ja) 2013-06-14 2017-03-29 ファナック株式会社 射出成形機のケーブル配線装置及び姿勢保持部材

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006128816A (ja) * 2004-10-26 2006-05-18 Victor Co Of Japan Ltd 立体映像・立体音響対応記録プログラム、再生プログラム、記録装置、再生装置及び記録メディア
JP2009278381A (ja) * 2008-05-14 2009-11-26 Nippon Hoso Kyokai <Nhk> 音像定位音響メタ情報を付加した音響信号多重伝送システム、制作装置及び再生装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018530952A (ja) * 2015-09-04 2018-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ビデオ画像に関連付けられているオーディオ信号を処理する方法および装置

Also Published As

Publication number Publication date
KR101844511B1 (ko) 2018-05-18
RU2518933C2 (ru) 2014-06-10
JP5944840B2 (ja) 2016-07-05
KR20110105715A (ko) 2011-09-27
WO2011115430A2 (ko) 2011-09-22
WO2011115430A3 (ko) 2011-11-24
EP3026935A1 (en) 2016-06-01
US20130010969A1 (en) 2013-01-10
BR112012023504A2 (pt) 2016-05-31
CN102812731A (zh) 2012-12-05
MY165980A (en) 2018-05-18
CN105933845B (zh) 2019-04-16
EP2549777B1 (en) 2016-03-16
US9113280B2 (en) 2015-08-18
MX2012010761A (es) 2012-10-15
BR112012023504B1 (pt) 2021-07-13
AU2011227869A1 (en) 2012-10-11
EP2549777A2 (en) 2013-01-23
CA2793720A1 (en) 2011-09-22
CN102812731B (zh) 2016-08-03
RU2012140018A (ru) 2014-03-27
CN105933845A (zh) 2016-09-07
CA2793720C (en) 2016-07-05
US9622007B2 (en) 2017-04-11
US20150358753A1 (en) 2015-12-10
AU2011227869B2 (en) 2015-05-21
EP2549777A4 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
JP5944840B2 (ja) 立体音響の再生方法及びその装置
US9749767B2 (en) Method and apparatus for reproducing stereophonic sound
RU2695508C1 (ru) Устройство предоставления аудио и способ предоставления аудио
JP5893129B2 (ja) オーディオをアップミックスして3dオーディオを生成する方法とシステム
KR101572894B1 (ko) 오디오 신호의 디코딩 방법 및 장치
JP2019506058A (ja) 没入型オーディオ再生のための信号合成
KR20130080819A (ko) 다채널 음향 신호의 정위 방법 및 장치
KR20190109019A (ko) 가상 공간에서 사용자의 이동에 따른 오디오 신호 재생 방법 및 장치
WO2019193244A1 (en) An apparatus, a method and a computer program for controlling playback of spatial audio
JP6382965B2 (ja) オーディオ信号レンダリング方法及び装置
JP2011199707A (ja) 音声データ再生装置及び音声データ再生方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160526

R150 Certificate of patent or registration of utility model

Ref document number: 5944840

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250