JP6915536B2 - 符号化装置および方法、復号装置および方法、並びにプログラム - Google Patents

符号化装置および方法、復号装置および方法、並びにプログラム Download PDF

Info

Publication number
JP6915536B2
JP6915536B2 JP2017524823A JP2017524823A JP6915536B2 JP 6915536 B2 JP6915536 B2 JP 6915536B2 JP 2017524823 A JP2017524823 A JP 2017524823A JP 2017524823 A JP2017524823 A JP 2017524823A JP 6915536 B2 JP6915536 B2 JP 6915536B2
Authority
JP
Japan
Prior art keywords
metadata
frame
audio signal
sample
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017524823A
Other languages
English (en)
Other versions
JPWO2016203994A1 (ja
Inventor
優樹 山本
優樹 山本
徹 知念
徹 知念
辻 実
実 辻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2016203994A1 publication Critical patent/JPWO2016203994A1/ja
Priority to JP2021079510A priority Critical patent/JP7205566B2/ja
Application granted granted Critical
Publication of JP6915536B2 publication Critical patent/JP6915536B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/02Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo four-channel type, e.g. in which rear channel signals are derived from two-channel stereo signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本技術は符号化装置および方法、復号装置および方法、並びにプログラムに関し、特に、より高音質な音声を得ることができるようにした符号化装置および方法、復号装置および方法、並びにプログラムに関する。
従来、オーディオオブジェクトのオーディオ信号と、そのオーディオオブジェクトの位置情報などのメタデータとを圧縮(符号化)するMPEG(Moving Picture Experts Group)-H 3D Audio規格が知られている(例えば、非特許文献1参照)。
この技術では、オーディオオブジェクトのオーディオ信号とメタデータがフレームごとに符号化されて伝送される。このとき、オーディオオブジェクトのオーディオ信号の1フレームにつき、最大で1つのメタデータが符号化されて伝送される。つまり、フレームによっては、メタデータがない場合もある。
また、符号化されたオーディオ信号とメタデータは、復号装置において復号され、復号により得られたオーディオ信号とメタデータに基づいてレンダリングが行われる。
すなわち、復号装置では、まずオーディオ信号とメタデータが復号される。復号の結果、オーディオ信号については、フレーム内のサンプルごとのPCM(Pulse Code Modulation)サンプル値が得られる。つまり、オーディオ信号としてPCMデータが得られる。
一方、メタデータについては、フレーム内の代表サンプルのメタデータ、具体的にはフレーム内の最後のサンプルのメタデータが得られる。
このようにしてオーディオ信号とメタデータが得られると、復号装置内のレンダラは、フレーム内の代表サンプルのメタデータとしての位置情報に基づいて、その位置情報により示される位置にオーディオオブジェクトの音像が定位するように、VBAP(Vector Base Amplitude Panning)によりVBAPゲインを算出する。このVBAPゲインは、再生側のスピーカごとに算出される。
但し、オーディオオブジェクトのメタデータは、上述したようにフレーム内の代表サンプル、つまりフレーム内の最後のサンプルのメタデータである。したがって、レンダラで算出されたVBAPゲインはフレーム内の最後のサンプルのゲインであり、フレーム内のそれ以外のサンプルのVBAPゲインは求められていない。そのため、オーディオオブジェクトの音声を再生するには、オーディオ信号の代表サンプル以外のサンプルのVBAPゲインも算出する必要がある。
そこで、レンダラでは補間処理により各サンプルのVBAPゲインが算出される。具体的には、スピーカごとに、現フレームの最後のサンプルのVBAPゲインと、その現フレームの直前のフレームの最後のサンプルのVBAPゲインとから、それらのサンプルの間にある現フレームのサンプルのVBAPゲインが線形補間により算出される。
このようにして、オーディオオブジェクトのオーディオ信号に乗算される各サンプルのVBAPゲインがスピーカごとに得られると、オーディオオブジェクトの音声を再生することができるようになる。
すなわち、復号装置では、スピーカごとに算出されたVBAPゲインが、そのオーディオオブジェクトのオーディオ信号に乗算されて各スピーカに供給され、音声が再生される。
ISO/IEC JTC1/SC29/WG11 N14747, August 2014, Sapporo, Japan, "Text of ISO/IEC 23008-3/DIS, 3D Audio"
しかしながら、上述した技術では、十分に高音質な音声を得ることが困難であった。
例えばVBAPでは、算出された各スピーカのVBAPゲインの2乗和が1となるように正規化が行われる。このような正規化により、音像の定位位置は、再生空間において所定の基準点、例えば音声付の動画像や楽曲などのコンテンツを視聴する仮想のユーザの頭部位置を中心とする、半径が1の球の表面上に位置するようになる。
しかし、フレーム内の代表サンプル以外のサンプルのVBAPゲインは補間処理により算出されるため、そのようなサンプルの各スピーカのVBAPゲインの2乗和は1とはならない。そのため、補間処理によりVBAPゲインを算出したサンプルについては、音声の再生時に音像の位置が仮想のユーザから見て、上述した球面の法線方向や、球の表面上の上下左右方向にずれてしまうことになる。そうすると、音声再生時において、1フレームの期間内でオーディオオブジェクトの音像位置がゆらいだりして定位感が悪化し、音声の音質が劣化してしまう。
特に、1フレームを構成するサンプル数が多くなればなるほど、現フレームの最後のサンプル位置と、その現フレームの直前のフレームの最後のサンプル位置との間の長さが長くなる。そうすると、補間処理により算出された各スピーカのVBAPゲインの2乗和と1との差が大きくなり、音質の劣化が大きくなる。
また、代表サンプル以外のサンプルのVBAPゲインを補間処理により算出する場合、オーディオオブジェクトの動きが速いときほど、現フレームの最後のサンプルのVBAPゲインと、その現フレームの直前のフレームの最後のサンプルのVBAPゲインとの差が大きくなる。そうすると、オーディオオブジェクトの動きを正確にレンダリングすることができなくなり、音質が劣化してしまう。
さらに、スポーツや映画などの実際のコンテンツでは、シーンが不連続に切り替わる。そのような場合、シーンの切り替わり部分では、オーディオオブジェクトが不連続に移動することになる。しかし、上述したように補間処理によりVBAPゲインを算出すると、補間処理によりVBAPゲインを算出したサンプルの区間、つまり現フレームの最後のサンプルと、その現フレームの直前のフレームの最後のサンプルとの間では、音声についてはオーディオオブジェクトが連続的に移動していることになってしまう。そうすると、オーディオオブジェクトの不連続な移動をレンダリングにより表現することができなくなってしまい、その結果、音声の音質が劣化してしまう。
本技術は、このような状況に鑑みてなされたものであり、より高音質な音声を得ることができるようにするものである。
本技術の第1の側面の復号装置は、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得する取得部と、前記符号化オーディオデータを復号する復号部と、前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行うレンダリング部とを備え、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれているようにすることができる。
前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれているようにすることができる。
本技術の第1の側面の復号方法またはプログラムは、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得し、前記符号化オーディオデータを復号し、前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行うステップを含み、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
本技術の第1の側面においては、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとが取得され、前記符号化オーディオデータが復号され、前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングが行われる。また、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
本技術の第2の側面の符号化装置は、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化する符号化部と、前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する生成部とを備え、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれているようにすることができる。
前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれているようにすることができる。
符号化装置には、メタデータに対する補間処理を行う補間処理部をさらに設けることができる。
本技術の第2の側面の符号化方法またはプログラムは、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化し、前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成するステップを含み、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
本技術の第2の側面においては、オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号が符号化され、前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームが生成される。また、前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
本技術の第1の側面および第2の側面によれば、より高音質な音声を得ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載された何れかの効果であってもよい。
ビットストリームについて説明する図である。 符号化装置の構成例を示す図である。 符号化処理を説明するフローチャートである。 復号装置の構成例を示す図である。 復号処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
〈本技術の概要について〉
本技術は、オーディオオブジェクトのオーディオ信号と、そのオーディオオブジェクトの位置情報などのメタデータとを符号化して伝送したり、復号側においてそれらのオーディオ信号とメタデータを復号して音声を再生したりする場合に、より高音質な音声を得ることができるようにするものである。なお、以下では、オーディオオブジェクトを単にオブジェクトとも称することとする。
本技術では、1フレームのオーディオ信号について複数のメタデータ、すなわち2以上のメタデータを符号化して送信するようにした。
ここで、メタデータは、オーディオ信号のフレーム内のサンプルのメタデータ、つまりサンプルに対して与えられたメタデータである。例えばメタデータとしての位置情報により示される空間内のオーディオオブジェクトの位置は、そのメタデータが与えられたサンプルに基づく音声の再生タイミングにおける位置を示している。
また、メタデータを送信する方法として以下に示す3つの方法、すなわち個数指定方式、サンプル指定方式、および自動切り替え方式による送信方法のうちの何れかの方法によりメタデータを送信することができる。また、メタデータ送信時には、所定時間間隔の区間であるフレームごとやオブジェクトごとに、それらの3つの方式を切り替えながらメタデータを送信することができる。
(個数指定方式)
まず、個数指定方式について説明する。
個数指定方式は、1フレームに対して送信されるメタデータの数を示すメタデータ個数情報をビットストリームシンタックスに含め、指定された個数のメタデータを送信する方式である。なお、1フレームを構成するサンプルの数を示す情報は、ビットストリームのヘッダ内に格納されている。
また、送信される各メタデータが、1フレーム内のどのサンプルのメタデータであるかは、1フレームを等分したときの位置など、予め定められているようにすればよい。
例えば、1フレームを構成するサンプルの数が2048サンプルであり、1フレームにつき4つのメタデータを送信するとする。このとき、1フレームの区間を、送信するメタデータの数で等分し、分割された区間境界のサンプル位置のメタデータを送るものとする。すなわち、1フレームのサンプル数をメタデータ数で除算して得られるサンプル数の間隔で並ぶフレーム内のサンプルのメタデータを送信するとする。
この場合、フレーム先頭から、それぞれ512個目のサンプル、1024個目のサンプル、1536個目のサンプル、および2048個目のサンプルについてメタデータが送信される。
その他、1フレームを構成するサンプルの数をSとし、1フレームにつき送信されるメタデータの数をAとしたときに、S/2(A-1)により定まるサンプル位置のメタデータが送信されるようにしてもよい。すなわち、フレーム内においてS/2(A-1)サンプル間隔で並ぶサンプルの一部または全部のメタデータを送信してもよい。この場合、例えばメタデータ数A=1であるときには、フレーム内の最後のサンプルのメタデータが送信されることになる。
また、所定間隔で並ぶサンプルごと、つまり所定サンプル数ごとにメタデータを送信するようにしてもよい。
(サンプル指定方式)
次に、サンプル指定方式について説明する。
サンプル指定方式では、上述した個数指定方式において送信されるメタデータ個数情報に加えて、さらに各メタデータのサンプル位置を示すサンプルインデックスもビットストリームに格納されて送信される。
例えば1フレームを構成するサンプルの数が2048サンプルであり、1フレームにつき4つのメタデータを送信するとする。また、フレーム先頭から、それぞれ128個目のサンプル、512個目のサンプル、1536個目のサンプル、および2048個目のサンプルについてメタデータを送信するとする。
この場合、ビットストリームには、1フレームにつき送信されるメタデータの個数「4」を示すメタデータ個数情報と、フレーム先頭から128個目のサンプル、512個目のサンプル、1536個目のサンプル、および2048個目のサンプルのそれぞれのサンプルの位置を示すサンプルインデックスのそれぞれとが格納される。例えばフレーム先頭から128個目のサンプルの位置を示すサンプルインデックスの値は、128などとされる。
サンプル指定方式では、フレームごとに任意のサンプルのメタデータを送信することが可能となるため、例えばシーンの切り替わり位置の前後のサンプルのメタデータを送信することができる。この場合、レンダリングによりオブジェクトの不連続な移動を表現することができ、高音質な音声を得ることができる。
(自動切り替え方式)
さらに、自動切り替え方式について説明する。
自動切り替え方式では、1フレームを構成するサンプルの数、つまり1フレームのサンプル数に応じて、各フレームにつき送信されるメタデータの数が自動的に切り替えられる。
例えば1フレームのサンプル数が1024サンプルである場合には、フレーム内において256サンプル間隔で並ぶ各サンプルのメタデータが送信される。この例では、フレーム先頭から、それぞれ256個目のサンプル、512個目のサンプル、768個目のサンプル、および1024個目のサンプルについて、合計4個のメタデータが送信される。
また、例えば1フレームのサンプル数が2048サンプルである場合には、フレーム内において256サンプル間隔で並ぶ各サンプルのメタデータが送信される。この例では、合計8個のメタデータが送信されることになる。
このように個数指定方式、サンプル指定方式、および自動切り替え方式の各方式で1フレームにつき2以上のメタデータを送信すれば、フレームを構成するサンプルの数が多い場合などに、より多くのメタデータを送信することができる。
これにより、線形補間によりVBAPゲインが算出されるサンプルが連続して並ぶ区間の長さがより短くなり、より高音質な音声を得ることができるようになる。
例えば線形補間によりVBAPゲインが算出されるサンプルが連続して並ぶ区間の長さがより短くなれば、各スピーカのVBAPゲインの2乗和と1との差も小さくなるので、オブジェクトの音像の定位感を向上させることができる。
また、メタデータを有するサンプル間の距離も短くなるので、それらのサンプルにおけるVBAPゲインの差も小さくなり、オブジェクトの動きをより正確にレンダリングすることができる。さらにメタデータを有するサンプル間の距離が短くなると、シーンの切り替わり部分など、本来オブジェクトが不連続に移動する期間において、音声についてオブジェクトが連続的に移動しているかのようになってしまう期間をより短くすることができる。特に、サンプル指定方式では、適切なサンプル位置のメタデータを送信することで、オブジェクトの不連続な移動を表現することができる。
なお、以上において説明した個数指定方式、サンプル指定方式、および自動切り替え方式の3つの方式の何れか1つのみを用いてメタデータを送信するようにしてもよいが、それらの3つの方式のうちの2以上の方式をフレームごとやオブジェクトごとに切り替えるようにしてもよい。
例えば個数指定方式、サンプル指定方式、および自動切り替え方式の3つの方式をフレームごとやオブジェクトごとに切り替える場合には、ビットストリームに、何れの方式によりメタデータが送信されたかを示す切り替えインデックスを格納するようにすればよい。
この場合、例えば切り替えインデックスの値が0のときは個数指定方式が選択されたこと、つまり個数指定方式によりメタデータが送信されたことを示しており、切り替えインデックスの値が1のときはサンプル指定方式が選択されたことを示しており、切り替えインデックスの値が2のときは自動切り替え方式が選択されたことを示しているなどとされる。以下では、これらの個数指定方式、サンプル指定方式、および自動切り替え方式が、フレームごとやオブジェクトごとに切り替えられるものとして説明を続ける。
また、上述したMPEG-H 3D Audio規格で定められているオーディオ信号とメタデータの送信方法では、フレーム内の最後のサンプルのメタデータのみが送信される。そのため、補間処理により各サンプルのVBAPゲインを算出する場合には、現フレームよりも前のフレームの最後のサンプルのVBAPゲインが必要となる。
したがって、例えば再生側(復号側)において、任意のフレームのオーディオ信号から再生を開始するランダムアクセスをしようとしても、そのランダムアクセスしたフレームよりも前のフレームのVBAPゲインは算出されていないので、VBAPゲインの補間処理を行うことができない。このような理由から、MPEG-H 3D Audio規格ではランダムアクセスを行うことができなかった。
そこで、本技術では、各フレームや任意の間隔のフレーム等において、それらのフレームのメタデータとともに、補間処理を行うために必要となるメタデータも送信することで、現フレームよりも前のフレームのサンプル、または現フレームの先頭のサンプルのVBAPゲインを算出できるようにした。これにより、ランダムアクセスが可能となる。なお、以下では、通常のメタデータとともに送信される、補間処理を行うためのメタデータを特に追加メタデータとも称することとする。
ここで、現フレームのメタデータとともに送信される追加メタデータは、例えば現フレームの直前のフレームの最後のサンプルのメタデータ、または現フレームの先頭のサンプルのメタデータなどとされる。
また、フレームごとに追加メタデータがあるか否かを容易に特定することができるように、ビットストリーム内に各オブジェクトについて、フレームごとに追加メタデータの有無を示す追加メタデータフラグが格納される。例えば所定のフレームの追加メタデータフラグの値が1である場合、そのフレームには追加メタデータが存在し、追加メタデータフラグの値が0である場合には、そのフレームには追加メタデータは存在しないなどとされる。
なお、基本的には、同一フレームの全てのオブジェクトの追加メタデータフラグの値は同じ値とされる。
このようにフレームごとに追加メタデータフラグを送信するとともに、必要に応じて追加メタデータを送信することで、追加メタデータのあるフレームについては、ランダムアクセスを行うことができるようになる。
なお、ランダムアクセスのアクセス先として指定されたフレームに追加メタデータがないときには、そのフレームに時間的に最も近い、追加メタデータのあるフレームをランダムアクセスのアクセス先とすればよい。したがって、適切なフレーム間隔等で追加メタデータを送信することで、ユーザに不自然さを感じさせることなくランダムアクセスを実現することが可能となる。
以上、追加メタデータの説明を行ったが、ランダムアクセスのアクセス先として指定されたフレームにおいて、追加メタデータを用いずに、VBAPゲインの補間処理を行うようにしても良い。この場合、追加メタデータを格納することによるビットストリームのデータ量(ビットレート)の増大を抑えつつ、ランダムアクセスが可能となる。
具体的には、ランダムアクセスのアクセス先として指定されたフレームにおいて、現フレームよりも前のフレームのVBAPゲインの値を0として、現フレームで算出されるVBAPゲインの値との補間処理を行う。なお、この方法に限らず、現フレームの各サンプルのVBAPゲインの値が、すべて、現フレームで算出されるVBAPゲインと同一の値となるように補間処理を行うようにしても良い。一方、ランダムアクセスのアクセス先として指定されないフレームにおいては、従来通り、現フレームよりも前のフレームのVBAPゲインを用いた補間処理が行われる。
このように、ランダムアクセスのアクセス先として指定されたか否かに基づいてVBAPゲインの補間処理の切り替えを行うことにより、追加メタデータを用いずに、ランダムアクセスをすることが可能となる。
なお、上述したMPEG-H 3D Audio規格では、フレームごとに、現フレームが、ビットストリーム内の現フレームのみのデータを用いて復号およびレンダリングできるフレーム(独立フレームと称する)であるか否かを示す、独立フラグ(indepFlagとも称する)がビットストリーム内に格納されている。独立フラグの値が1である場合、復号側では、ビットストリーム内の、現フレームよりも前のフレームのデータ、及びそのデータの復号により得られるいかなる情報も用いることなく復号およびレンダリングを行うことができるとされている。
したがって、独立フラグの値が1である場合、現フレームよりも前のフレームのVBAPゲインを用いずに復号およびレンダリングを行うことが必要となる。
そこで、独立フラグの値が1であるフレームにおいて、上述の追加メタデータをビットストリームに格納するようにしても良いし、上述の補間処理の切り替えを行っても良い。
このように、独立フラグの値に応じて、ビットストリーム内に追加メタデータを格納するか否かの切り替えや、VBAPゲインの補間処理の切り替えを行うことで、独立フラグの値が1である場合に、現フレームよりも前のフレームのVBAPゲインを用いずに復号およびレンダリングを行うことが可能となる。
さらに、上述したMPEG-H 3D Audio規格では、復号により得られるメタデータは、フレーム内の代表サンプル、つまり最後のサンプルのメタデータのみであると説明した。しかし、そもそもオーディオ信号とメタデータの符号化側においては、符号化装置に入力される圧縮(符号化)前のメタデータもフレーム内の全サンプルについて定義されているものは殆どない。つまり、オーディオ信号のフレーム内のサンプルには、符号化前の状態からメタデータのないサンプルも多い。
現状では、例えば0番目のサンプル、1024番目のサンプル、2048番目のサンプルなどの等間隔で並ぶサンプルのみメタデータを有していたり、0番目のサンプル、138番目のサンプル、2044番目のサンプルなどの不等間隔で並ぶサンプルのみメタデータを有していたりすることが殆どである。
このような場合、フレームによってはメタデータを有するサンプルが1つも存在しないこともあり、そのようなフレームについてはメタデータが送信されないことになる。そうすると、復号側において、メタデータを有するサンプルが1つもないフレームについて、各サンプルのVBAPゲインを算出するには、そのフレーム以降のメタデータのあるフレームのVBAPゲインの算出を行わなければならなくなる。その結果、メタデータの復号とレンダリングに遅延が発生し、リアルタイムで復号およびレンダリングを行うことができなくなってしまう。
そこで、本技術では、符号化側において、必要に応じてメタデータを有するサンプル間の各サンプルについて、補間処理(サンプル補間)によりそれらのサンプルのメタデータを求め、復号側においてリアルタイムで復号およびレンダリングを行うことができるようにした。特に、ビデオゲームなどにおいては、オーディオ再生の遅延をできるだけ小さくしたいという要求がある。そのため、本技術により復号およびレンダリングの遅延を小さくすること、つまりゲーム操作等に対するインタラクティブ性を向上させることができるようにすることの意義は大きい。
なお、メタデータの補間処理は、例えば線形補間、高次関数を用いた非線形補間など、どのような処理であってもよい。
〈ビットストリームについて〉
次に、以上において説明した本技術を適用した、より具体的な実施の形態について説明する。
各オブジェクトのオーディオ信号とメタデータを符号化する符号化装置からは、例えば図1に示すビットストリームが出力される。
図1に示すビットストリームでは、先頭にヘッダが配置されており、そのヘッダ内には、各オブジェクトのオーディオ信号の1フレームを構成するサンプルの数、すなわち1フレームのサンプル数を示す情報(以下、サンプル数情報とも称する)が格納されている。
そして、ビットストリームにおいてヘッダの後ろには、フレームごとのデータが配置される。具体的には、領域R10の部分には、現フレームが、独立フレームであるか否かを示す、独立フラグが配置されている。そして、領域R11の部分には、同一フレームの各オブジェクトのオーディオ信号を符号化して得られた符号化オーディオデータが配置されている。
また、領域R11に続く領域R12の部分には、同一フレームの各オブジェクトのメタデータ等を符号化して得られた符号化メタデータが配置されている。
例えば領域R12内の領域R21の部分には、1つのオブジェクトの1フレーム分の符号化メタデータが配置されている。
この例では、符号化メタデータの先頭には、追加メタデータフラグが配置されており、その追加メタデータフラグに続いて、切り替えインデックスが配置されている。
さらに、切り替えインデックスの次にはメタデータ個数情報とサンプルインデックスが配置されている。なお、ここではサンプルインデックスが1つだけ描かれているが、より詳細には、サンプルインデックスは、符号化メタデータに格納されるメタデータの数だけ、その符号化メタデータ内に格納される。
符号化メタデータでは、切り替えインデックスにより示される方式が個数指定方式である場合には、切り替えインデックスに続いてメタデータ個数情報は配置されるが、サンプルインデックスは配置されない。
また、切り替えインデックスにより示される方式がサンプル指定方式である場合には、切り替えインデックスに続いてメタデータ個数情報およびサンプルインデックスが配置される。さらに、切り替えインデックスにより示される方式が自動切り替え方式である場合には、切り替えインデックスに続いてメタデータ個数情報もサンプルインデックスも配置されない。
必要に応じて配置されるメタデータ個数情報やサンプルインデックスに続く位置には、追加メタデータが配置され、さらにその追加メタデータに続いて各サンプルのメタデータが定義された個数分だけ配置される。
ここで、追加メタデータは、追加メタデータフラグの値が1である場合にのみ配置され、追加メタデータフラグの値が0である場合には配置されない。
領域R12の部分には、領域R21の部分に配置された符号化メタデータと同様の符号化メタデータがオブジェクトごとに並べられて配置されている。
ビットストリームでは、領域R10の部分に配置された独立フラグと、領域R11の部分に配置された各オブジェクトの符号化オーディオデータと、領域R12の部分に配置された各オブジェクトの符号化メタデータとから、1フレーム分のデータが構成される。
〈符号化装置の構成例〉
次に、図1に示したビットストリームを出力する符号化装置の構成について説明する。図2は、本技術を適用した符号化装置の構成例を示す図である。
符号化装置11は、オーディオ信号取得部21、オーディオ信号符号化部22、メタデータ取得部23、補間処理部24、関連情報取得部25、メタデータ符号化部26、多重化部27、および出力部28を有している。
オーディオ信号取得部21は、各オブジェクトのオーディオ信号を取得してオーディオ信号符号化部22に供給する。オーディオ信号符号化部22は、オーディオ信号取得部21から供給されたオーディオ信号をフレーム単位で符号化し、その結果得られた各オブジェクトのフレームごとの符号化オーディオデータを多重化部27に供給する。
メタデータ取得部23は、各オブジェクトのフレームごとのメタデータ、より詳細にはフレーム内の各サンプルのメタデータを取得して補間処理部24に供給する。ここで、メタデータには、例えば空間内におけるオブジェクトの位置を示す位置情報、オブジェクトの重要度を示す重要度情報、オブジェクトの音像の広がり度合いを示す情報などが含まれている。メタデータ取得部23では、各オブジェクトのオーディオ信号の所定サンプル(PCMサンプル)のメタデータが取得される。
補間処理部24は、メタデータ取得部23から供給されたメタデータに対する補間処理を行って、オーディオ信号のメタデータのないサンプルのうちの、全てのサンプルまたは一部の特定のサンプルのメタデータを生成する。補間処理部24では、1つのオブジェクトの1フレームのオーディオ信号が複数のメタデータを有するように、つまり1フレーム内の複数のサンプルがメタデータを有するように、補間処理によりフレーム内のサンプルのメタデータが生成される。
補間処理部24は、補間処理により得られた、各オブジェクトのフレームごとのメタデータをメタデータ符号化部26に供給する。
関連情報取得部25は、フレームごとに、現フレームを、独立フレームにするかを示す情報(独立フレーム情報と称する)や、各オブジェクトについて、オーディオ信号のフレームごとに、サンプル数情報や、何れの方式でメタデータを送信するかを示す情報、追加メタデータを送信するかを示す情報、どのサンプルのメタデータを送信するかを示す情報など、メタデータに関連する情報を関連情報として取得する。また、関連情報取得部25は、取得した関連情報に基づいて、各オブジェクトについて、フレームごとに追加メタデータフラグ、切り替えインデックス、メタデータ個数情報、およびサンプルインデックスのうちの必要な情報を生成し、メタデータ符号化部26に供給する。
メタデータ符号化部26は、関連情報取得部25から供給された情報に基づいて、補間処理部24から供給されたメタデータの符号化を行い、その結果得られた各オブジェクトのフレームごとの符号化メタデータと、関連情報取得部25から供給された情報に含まれる独立フレーム情報とを多重化部27に供給する。
多重化部27は、オーディオ信号符号化部22から供給された符号化オーディオデータと、メタデータ符号化部26から供給された符号化メタデータと、メタデータ符号化部26から供給された独立フレーム情報に基づき得られる独立フラグとを多重化してビットストリームを生成し、出力部28に供給する。出力部28は、多重化部27から供給されたビットストリームを出力する。すなわち、ビットストリームが送信される。
〈符号化処理の説明〉
符号化装置11は、外部からオブジェクトのオーディオ信号が供給されると、符号化処理を行ってビットストリームを出力する。以下、図3のフローチャートを参照して、符号化装置11による符号化処理について説明する。なお、この符号化処理はオーディオ信号のフレームごとに行われる。
ステップS11において、オーディオ信号取得部21は、各オブジェクトのオーディオ信号を1フレーム分だけ取得してオーディオ信号符号化部22に供給する。
ステップS12において、オーディオ信号符号化部22は、オーディオ信号取得部21から供給されたオーディオ信号を符号化し、その結果得られた各オブジェクトの1フレーム分の符号化オーディオデータを多重化部27に供給する。
例えばオーディオ信号符号化部22は、オーディオ信号に対してMDCT(Modified Discrete Cosine Transform)等を行うことで、オーディオ信号を時間信号から周波数信号に変換する。そして、オーディオ信号符号化部22は、MDCTにより得られたMDCT係数を符号化し、その結果得られたスケールファクタ、サイド情報、および量子化スペクトルを、オーディオ信号を符号化して得られた符号化オーディオデータとする。
これにより、例えば図1に示したビットストリームの領域R11の部分に格納される各オブジェクトの符号化オーディオデータが得られる。
ステップS13において、メタデータ取得部23は、各オブジェクトについて、オーディオ信号のフレームごとのメタデータを取得して補間処理部24に供給する。
ステップS14において、補間処理部24は、メタデータ取得部23から供給されたメタデータに対する補間処理を行って、メタデータ符号化部26に供給する。
例えば補間処理部24は、1つのオーディオ信号について、所定のサンプルのメタデータとしての位置情報と、その所定のサンプルの時間的に前に位置する他のサンプルのメタデータとしての位置情報とに基づいて、線形補間によりそれらの2つのサンプルの間に位置する各サンプルの位置情報を算出する。同様に、メタデータとしての重要度情報や音像の広がり度合いを示す情報などについても線形補間等の補間処理が行われ、各サンプルのメタデータが生成される。
なお、メタデータの補間処理では、オブジェクトの1フレームのオーディオ信号の全サンプルがメタデータ有するようにメタデータが算出されてもよいし、全サンプルのうちの必要なサンプルのみメタデータを有するようにメタデータが算出されてもよい。また、補間処理は線形補間に限らず、非線形補間であってもよい。
ステップS15において、関連情報取得部25は、各オブジェクトのオーディオ信号のフレームについて、メタデータに関連する関連情報を取得する。
そして、関連情報取得部25は、取得した関連情報に基づいて、オブジェクトごとに追加メタデータフラグ、切り替えインデックス、メタデータ個数情報、およびサンプルインデックスのうちの必要な情報を生成し、メタデータ符号化部26に供給する。
なお、関連情報取得部25が追加メタデータフラグや切り替えインデックスなどを生成するのではなく、関連情報取得部25が追加メタデータフラグや切り替えインデックスなどを外部から取得するようにしてもよい。
ステップS16において、メタデータ符号化部26は、関連情報取得部25から供給された追加メタデータフラグや、切り替えインデックス、メタデータ個数情報、サンプルインデックスなどに基づいて、補間処理部24から供給されたメタデータを符号化する。
メタデータの符号化にあたっては、各オブジェクトについて、オーディオ信号のフレーム内の各サンプルのメタデータのうち、サンプル数情報や、切り替えインデックスにより示される方式、メタデータ個数情報、サンプルインデックスなどにより定まるサンプル位置のメタデータのみが送信されるように、符号化メタデータが生成される。また、フレームの先頭サンプルのメタデータ、または保持されていた直前のフレームの最後のサンプルのメタデータが、必要に応じて追加メタデータとされる。
符号化メタデータには、メタデータの他、追加メタデータフラグおよび切り替えインデックスが含まれ、かつ必要に応じてメタデータ個数情報やサンプルインデックス、追加メタデータなどが含まれるようにされる。
これにより、例えば図1に示したビットストリームの領域R12に格納される各オブジェクトの符号化メタデータが得られる。例えば領域R21に格納されている符号化メタデータが、1つのオブジェクトの1フレーム分の符号化メタデータである。
この場合、例えばオブジェクトの処理対象となっているフレームで個数指定方式が選択され、かつ追加メタデータが送信されるときには、追加メタデータフラグ、切り替えインデックス、メタデータ個数情報、追加メタデータ、およびメタデータからなる符号化メタデータが生成される。
また、例えばオブジェクトの処理対象となっているフレームでサンプル指定方式が選択され、かつ追加メタデータが送信されないときには、追加メタデータフラグ、切り替えインデックス、メタデータ個数情報、サンプルインデックス、およびメタデータからなる符号化メタデータが生成される。
さらに、例えばオブジェクトの処理対象となっているフレームで自動切り替え方式が選択され、かつ追加メタデータが送信されるときには、追加メタデータフラグ、切り替えインデックス、追加メタデータ、およびメタデータからなる符号化メタデータが生成される。
メタデータ符号化部26は、メタデータの符号化により得られた各オブジェクトの符号化メタデータと、関連情報取得部25から供給された情報に含まれる独立フレーム情報とを多重化部27に供給する。
ステップS17において、多重化部27は、オーディオ信号符号化部22から供給された符号化オーディオデータと、メタデータ符号化部26から供給された符号化メタデータと、メタデータ符号化部26から供給された独立フレーム情報に基づき得られる独立フラグとを多重化してビットストリームを生成し、出力部28に供給する。
これにより、1フレーム分のビットストリームとして、例えば図1に示したビットストリームの領域R10乃至領域R12の部分からなるビットストリームが生成される。
ステップS18において、出力部28は、多重化部27から供給されたビットストリームを出力し、符号化処理は終了する。なお、ビットストリームの先頭部分が出力される場合には、図1に示したように、サンプル数情報等が含まれるヘッダも出力される。
以上のようにして符号化装置11は、オーディオ信号を符号化するとともに、メタデータを符号化し、その結果得られた符号化オーディオデータと符号化メタデータとからなるビットストリームを出力する。
このとき、1フレームに対して複数のメタデータが送信されるようにすることで、復号側において、補間処理によりVBAPゲインが算出されるサンプルの並ぶ区間の長さをより短くすることができ、より高音質な音声を得ることができるようになる。
また、メタデータに対して補間処理を行うことで、必ず1フレームで1以上のメタデータを送信することができ、復号側においてリアルタイムで復号およびレンダリングを行うことができるようになる。さらに、必要に応じて追加メタデータを送信することで、ランダムアクセスを実現することができる。
〈復号装置の構成例〉
続いて、符号化装置11から出力されたビットストリームを受信(取得)して復号を行う復号装置について説明する。例えば本技術を適用した復号装置は、図4に示すように構成される。
この復号装置51には、再生空間に配置された複数のスピーカからなるスピーカシステム52が接続されている。復号装置51は、復号およびレンダリングにより得られた各チャンネルのオーディオ信号を、スピーカシステム52を構成する各チャンネルのスピーカに供給し、音声を再生させる。
復号装置51は、取得部61、分離部62、オーディオ信号復号部63、メタデータ復号部64、ゲイン算出部65、およびオーディオ信号生成部66を有している。
取得部61は、符号化装置11から出力されたビットストリームを取得して分離部62に供給する。分離部62は、取得部61から供給されたビットストリームを、独立フラグと符号化オーディオデータと符号化メタデータとに分離させ、符号化オーディオデータをオーディオ信号復号部63に供給するとともに、独立フラグと符号化メタデータとをメタデータ復号部64に供給する。
なお、分離部62は、必要に応じて、ビットストリームのヘッダからサンプル数情報などの各種の情報を読み出して、オーディオ信号復号部63やメタデータ復号部64に供給する。
オーディオ信号復号部63は、分離部62から供給された符号化オーディオデータを復号し、その結果得られた各オブジェクトのオーディオ信号をオーディオ信号生成部66に供給する。
メタデータ復号部64は、分離部62から供給された符号化メタデータを復号し、その結果得られたオブジェクトごとのオーディオ信号の各フレームのメタデータと、分離部62から供給された独立フラグとをゲイン算出部65に供給する。
メタデータ復号部64は、符号化メタデータから追加メタデータフラグを読み出す追加メタデータフラグ読み出し部71と、符号化メタデータから切り替えインデックスを読み出す切り替えインデックス読み出し部72を有している。
ゲイン算出部65は、予め保持しているスピーカシステム52を構成する各スピーカの空間上の配置位置を示す配置位置情報と、メタデータ復号部64から供給された各オブジェクトのフレームごとのメタデータと独立フラグとに基づいて、各オブジェクトについて、オーディオ信号のフレーム内のサンプルのVBAPゲインを算出する。
また、ゲイン算出部65は、所定のサンプルのVBAPゲインに基づいて、補間処理により他のサンプルのVBAPゲインを算出する補間処理部73を有している。
ゲイン算出部65は、各オブジェクトについて、オーディオ信号のフレーム内のサンプルごとに算出されたVBAPゲインをオーディオ信号生成部66に供給する。
オーディオ信号生成部66は、オーディオ信号復号部63から供給された各オブジェクトのオーディオ信号と、ゲイン算出部65から供給された各オブジェクトのサンプルごとのVBAPゲインとに基づいて、各チャンネルのオーディオ信号、すなわち各チャンネルのスピーカに供給するオーディオ信号を生成する。
オーディオ信号生成部66は、生成したオーディオ信号をスピーカシステム52を構成する各スピーカに供給し、オーディオ信号に基づく音声を出力させる。
復号装置51では、ゲイン算出部65およびオーディオ信号生成部66からなるブロックが、復号により得られたオーディオ信号とメタデータに基づいてレンダリングを行うレンダラ(レンダリング部)として機能する。
〈復号処理の説明〉
復号装置51は、符号化装置11からビットストリームが送信されてくると、そのビットストリームを受信(取得)して復号する復号処理を行う。以下、図5のフローチャートを参照して、復号装置51による復号処理について説明する。なお、この復号処理はオーディオ信号のフレームごとに行われる。
ステップS41において、取得部61は、符号化装置11から出力されたビットストリームを1フレーム分だけ取得して分離部62に供給する。
ステップS42において、分離部62は、取得部61から供給されたビットストリームを、独立フラグと符号化オーディオデータと符号化メタデータとに分離させ、符号化オーディオデータをオーディオ信号復号部63に供給するとともに、独立フラグと符号化メタデータをメタデータ復号部64に供給する。
このとき、分離部62は、ビットストリームのヘッダから読み出したサンプル数情報をメタデータ復号部64に供給する。なお、サンプル数情報の供給タイミングは、ビットストリームのヘッダが取得されたタイミングとすればよい。
ステップS43において、オーディオ信号復号部63は、分離部62から供給された符号化オーディオデータを復号し、その結果得られた各オブジェクトの1フレーム分のオーディオ信号をオーディオ信号生成部66に供給する。
例えばオーディオ信号復号部63は、符号化オーディオデータを復号してMDCT係数を求める。具体的には、オーディオ信号復号部63は符号化オーディオデータとして供給されたスケールファクタ、サイド情報、および量子化スペクトルに基づいてMDCT係数を算出する。
また、オーディオ信号復号部63はMDCT係数に基づいて、IMDCT(Inverse Modified Discrete Cosine Transform)を行い、その結果得られたPCMデータをオーディオ信号としてオーディオ信号生成部66に供給する。
符号化オーディオデータの復号が行われると、その後、符号化メタデータの復号が行われる。すなわち、ステップS44において、メタデータ復号部64の追加メタデータフラグ読み出し部71は、分離部62から供給された符号化メタデータから追加メタデータフラグを読み出す。
例えばメタデータ復号部64は、分離部62から順次供給されてくる符号化メタデータに対応するオブジェクトを順番に処理対象のオブジェクトとする。追加メタデータフラグ読み出し部71は、処理対象とされたオブジェクトの符号化メタデータから追加メタデータフラグを読み出す。
ステップS45において、メタデータ復号部64の切り替えインデックス読み出し部72は、分離部62から供給された、処理対象のオブジェクトの符号化メタデータから切り替えインデックスを読み出す。
ステップS46において、切り替えインデックス読み出し部72は、ステップS45で読み出した切り替えインデックスにより示される方式が個数指定方式であるか否かを判定する。
ステップS46において個数指定方式であると判定された場合、ステップS47において、メタデータ復号部64は、分離部62から供給された、処理対象のオブジェクトの符号化メタデータからメタデータ個数情報を読み出す。
処理対象のオブジェクトの符号化メタデータには、このようにして読み出されたメタデータ個数情報により示される数だけ、メタデータが格納されている。
ステップS48において、メタデータ復号部64は、ステップS47で読み出したメタデータ個数情報と、分離部62から供給されたサンプル数情報とに基づいて、処理対象のオブジェクトのオーディオ信号のフレームにおける、送信されてきたメタデータのサンプル位置を特定する。
例えばサンプル数情報により示される数のサンプルからなる1フレームの区間が、メタデータ個数情報により示されるメタデータ数の区間に等分され、等分された各区間の最後のサンプル位置がメタデータのサンプル位置、つまりメタデータを有するサンプルの位置とされる。このようにして求められたサンプル位置が、符号化メタデータに含まれる各メタデータのサンプル位置、つまりそれらのメタデータを有するサンプルとされる。
なお、ここでは1フレームの区間が等分されて、それらの等分された区間の最後のサンプルのメタデータが送信される場合について説明したが、どのサンプルのメタデータを送信するかに応じて、サンプル数情報とメタデータ個数情報から各メタデータのサンプル位置が算出される。
このようにして処理対象のオブジェクトの符号化メタデータに含まれているメタデータの個数と、各メタデータのサンプル位置が特定されると、その後、処理はステップS53へと進む。
一方、ステップS46において個数指定方式でないと判定された場合、ステップS49において、切り替えインデックス読み出し部72は、ステップS45で読み出した切り替えインデックスにより示される方式がサンプル指定方式であるか否かを判定する。
ステップS49においてサンプル指定方式であると判定された場合、ステップS50において、メタデータ復号部64は、分離部62から供給された、処理対象のオブジェクトの符号化メタデータからメタデータ個数情報を読み出す。
ステップS51において、メタデータ復号部64は、分離部62から供給された、処理対象のオブジェクトの符号化メタデータからサンプルインデックスを読み出す。このとき、メタデータ個数情報により示される個数だけ、サンプルインデックスが読み出される。
このようにして読み出されたメタデータ個数情報とサンプルインデックスから、処理対象のオブジェクトの符号化メタデータに格納されているメタデータの個数と、それらのメタデータのサンプル位置とを特定することができる。
処理対象のオブジェクトの符号化メタデータに含まれているメタデータの個数と、各メタデータのサンプル位置が特定されると、その後、処理はステップS53へと進む。
また、ステップS49においてサンプル指定方式でないと判定された場合、すなわち切り替えインデックスにより示される方式が自動切り替え方式である場合、処理はステップS52へと進む。
ステップS52において、メタデータ復号部64は、分離部62から供給されたサンプル数情報に基づいて、処理対象のオブジェクトの符号化メタデータに含まれているメタデータの個数と、各メタデータのサンプル位置を特定し、処理はステップS53へと進む。
例えば自動切り替え方式では、1フレームを構成するサンプルの数に対して、送信されるメタデータの個数と、各メタデータのサンプル位置、つまりどのサンプルのメタデータを送信するかとが予め定められている。
そのため、メタデータ復号部64は、サンプル数情報から、処理対象のオブジェクトの符号化メタデータに格納されているメタデータの個数と、それらのメタデータのサンプル位置とを特定することができる。
ステップS48、ステップS51、またはステップS52の処理が行われると、ステップS53において、メタデータ復号部64は、ステップS44で読み出された追加メタデータフラグの値に基づいて、追加メタデータがあるか否かを判定する。
ステップS53において、追加メタデータがあると判定された場合、ステップS54において、メタデータ復号部64は、処理対象のオブジェクトの符号化メタデータから、追加メタデータを読み出す。追加メタデータが読み出されると、その後、処理はステップS55へと進む。
これに対して、ステップS53において追加メタデータがないと判定された場合、ステップS54の処理はスキップされて、処理はステップS55へと進む。
ステップS54で追加メタデータが読み出されたか、またはステップS53において追加メタデータがないと判定されると、ステップS55において、メタデータ復号部64は、処理対象のオブジェクトの符号化メタデータからメタデータを読み出す。
このとき、符号化メタデータからは、上述した処理により特定された個数だけ、メタデータが読み出されることになる。
以上の処理により、処理対象のオブジェクトの1フレーム分のオーディオ信号について、メタデータと追加メタデータの読み出しが行われたことになる。
メタデータ復号部64は、読み出した各メタデータをゲイン算出部65に供給する。その際、ゲイン算出部65は、どのメタデータが、どのオブジェクトのどのサンプルのメタデータであるかを特定できるようにメタデータの供給を行う。また、追加メタデータが読み出されたときには、メタデータ復号部64は、読み出した追加メタデータもゲイン算出部65に供給する。
ステップS56において、メタデータ復号部64は、全てのオブジェクトについて、メタデータの読み出しを行ったか否かを判定する。
ステップS56において、まだ全てのオブジェクトについて、メタデータの読み出しを行っていないと判定された場合、処理はステップS44に戻り、上述した処理が繰り返し行われる。この場合、まだ処理対象とされていないオブジェクトが、新たな処理対象のオブジェクトとされて、そのオブジェクトの符号化メタデータからメタデータ等が読み出される。
これに対して、ステップS56において全てのオブジェクトについてメタデータの読み出しを行ったと判定された場合、メタデータ復号部64は、分離部62から供給された独立フラグをゲイン算出部65に供給し、その後、処理はステップS57に進み、レンダリングが開始される。
すなわち、ステップS57において、ゲイン算出部65は、メタデータ復号部64から供給されたメタデータや追加メタデータや独立フラグに基づいて、VBAPゲインを算出する。
例えばゲイン算出部65は、各オブジェクトを順番に処理対象のオブジェクトとして選択していき、さらにその処理対象のオブジェクトのオーディオ信号のフレーム内にある、メタデータのあるサンプルを、順番に処理対象のサンプルとして選択する。
ゲイン算出部65は、処理対象のサンプルについて、そのサンプルのメタデータとしての位置情報により示される空間上のオブジェクトの位置と、配置位置情報により示されるスピーカシステム52の各スピーカの空間上の位置とに基づいて、VBAPにより処理対象のサンプルの各チャンネル、すなわち各チャンネルのスピーカのVBAPゲインを算出する。
VBAPでは、オブジェクトの周囲にある3つまたは2つのスピーカから、所定のゲインで音声を出力することで、そのオブジェクトの位置に音像を定位させることができる。なお、VBAPについては、例えば「Ville Pulkki, “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of AES, vol.45, no.6, pp.456-466, 1997」などに詳細に記載されている。
ステップS58において、補間処理部73は補間処理を行って、メタデータのないサンプルの各スピーカのVBAPゲインを算出する。
例えば補間処理では、直前のステップS57で算出した処理対象のサンプルのVBAPゲインと、その処理対象のサンプルよりも時間的に前にある、処理対象のオブジェクトの同じフレームまたは直前のフレームのメタデータのあるサンプル(以下、参照サンプルとも称する)のVBAPゲインとが用いられる。すなわち、スピーカシステム52を構成するスピーカ(チャンネル)ごとに、処理対象のサンプルのVBAPゲインと、参照サンプルのVBAPゲインとが用いられて、それらの処理対象のサンプルと、参照サンプルとの間にある各サンプルのVBAPゲインが線形補間等により算出される。
なお、例えばランダムアクセスが指示された場合、もしくは、メタデータ復号部64から供給された独立フラグの値が1である場合で、追加メタデータがある場合には、ゲイン算出部65は追加メタデータを用いてVBAPゲインの算出を行う。
具体的には、例えば処理対象のオブジェクトのオーディオ信号のフレーム内において、最もフレーム先頭側にある、メタデータを有するサンプルが処理対象のサンプルとされて、そのサンプルのVBAPゲインが算出されたとする。この場合、このフレームよりも前のフレームについてはVBAPゲインが算出されていないので、ゲイン算出部65は、追加メタデータを用いて、そのフレームの先頭サンプルまたはそのフレームの直前のフレームの最後のサンプルを参照サンプルとして、その参照サンプルのVBAPゲインを算出する。
そして、補間処理部73は、処理対象のサンプルのVBAPゲインと、参照サンプルのVBAPゲインとから、それらの処理対象のサンプルと参照サンプルの間にある各サンプルのVBAPゲインを補間処理により算出する。
一方、例えばランダムアクセスが指示された場合、もしくは、メタデータ復号部64から供給された独立フラグの値が1である場合で、追加メタデータがない場合には、追加メタデータを用いたVBAPゲインの算出は行われず、補間処理の切り替えが行われる。
具体的には、例えば処理対象のオブジェクトのオーディオ信号のフレーム内において、最もフレーム先頭側にある、メタデータを有するサンプルが処理対象のサンプルとされて、そのサンプルのVBAPゲインが算出されたとする。この場合、このフレームよりも前のフレームについてはVBAPゲインが算出されていないので、ゲイン算出部65は、そのフレームの先頭サンプルまたはそのフレームの直前のフレームの最後のサンプルを参照サンプルとして、その参照サンプルのVBAPゲインを0として算出する。
そして、補間処理部73は、処理対象のサンプルのVBAPゲインと、参照サンプルのVBAPゲインとから、それらの処理対象のサンプルと参照サンプルの間にある各サンプルのVBAPゲインを補間処理により算出する。
なお、この方法に限らず、例えば、補間される各サンプルのVBAPゲインを、すべて、処理対象のサンプルのVBAPゲインと同一の値にするように補間処理を行っても良い。
このように、VBAPゲインの補間処理を切り替えることにより、追加メタデータがないフレームにおいても、ランダムアクセスや、独立フレームにおける復号およびレンダリングが可能となる。
また、ここではメタデータのないサンプルのVBAPゲインが補間処理により求められる例について説明したが、メタデータ復号部64において、メタデータのないサンプルについて、補間処理によりサンプルのメタデータが求められるようにしてもよい。この場合、オーディオ信号の全てのサンプルのメタデータが得られるので、補間処理部73ではVBAPゲインの補間処理は行われない。
ステップS59において、ゲイン算出部65は、処理対象のオブジェクトのオーディオ信号のフレーム内の全サンプルのVBAPゲインを算出したか否かを判定する。
ステップS59において、まだ全サンプルのVBAPゲインを算出していないと判定された場合、処理はステップS57に戻り、上述した処理が繰り返し行われる。すなわち、メタデータを有する次のサンプルが処理対象のサンプルとして選択され、VBAPゲインが算出される。
これに対して、ステップS59において全サンプルのVBAPゲインを算出したと判定された場合、ステップS60において、ゲイン算出部65は、全オブジェクトのVBAPゲインを算出したか否かを判定する。
例えば全てのオブジェクトが処理対象のオブジェクトとされて、それらのオブジェクトについて、スピーカごとの各サンプルのVBAPゲインが算出された場合、全オブジェクトのVBAPゲインを算出したと判定される。
ステップS60において、まだ全オブジェクトのVBAPゲインを算出していないと判定された場合、処理はステップS57に戻り、上述した処理が繰り返し行われる。
これに対して、ステップS60において全オブジェクトのVBAPゲインを算出したと判定された場合、ゲイン算出部65は算出したVBAPゲインをオーディオ信号生成部66に供給し、処理はステップS61へと進む。この場合、スピーカごとに算出された、各オブジェクトのオーディオ信号のフレーム内の各サンプルのVBAPゲインがオーディオ信号生成部66へと供給される。
ステップS61において、オーディオ信号生成部66は、オーディオ信号復号部63から供給された各オブジェクトのオーディオ信号と、ゲイン算出部65から供給された各オブジェクトのサンプルごとのVBAPゲインとに基づいて、各スピーカのオーディオ信号を生成する。
例えばオーディオ信号生成部66は、各オブジェクトのオーディオ信号のそれぞれに対して、それらのオブジェクトごとに得られた同じスピーカのVBAPゲインのそれぞれをサンプルごとに乗算して得られた信号を加算することで、そのスピーカのオーディオ信号を生成する。
具体的には、例えばオブジェクトとしてオブジェクトOB1乃至オブジェクトOB3の3つのオブジェクトがあり、それらのオブジェクトのスピーカシステム52を構成する所定のスピーカSP1のVBAPゲインとして、VBAPゲインG1乃至VBAPゲインG3が得られているとする。この場合、VBAPゲインG1が乗算されたオブジェクトOB1のオーディオ信号、VBAPゲインG2が乗算されたオブジェクトOB2のオーディオ信号、およびVBAPゲインG3が乗算されたオブジェクトOB3のオーディオ信号が加算され、その結果得られたオーディオ信号が、スピーカSP1に供給されるオーディオ信号とされる。
ステップS62において、オーディオ信号生成部66は、ステップS61の処理で得られた各スピーカのオーディオ信号をスピーカシステム52の各スピーカに供給し、それらのオーディオ信号に基づいて音声を再生させ、復号処理は終了する。これにより、スピーカシステム52によって、各オブジェクトの音声が再生される。
以上のようにして復号装置51は、符号化オーディオデータおよび符号化メタデータを復号し、復号により得られたオーディオ信号およびメタデータに基づいてレンダリングを行い、各スピーカのオーディオ信号を生成する。
復号装置51では、レンダリングを行うにあたり、オブジェクトのオーディオ信号のフレームに対して複数のメタデータが得られるので、補間処理によりVBAPゲインが算出されるサンプルの並ぶ区間の長さをより短くすることができる。これにより、より高音質な音声を得ることができるだけでなく、リアルタイムで復号とレンダリングを行うことができる。また、フレームによっては追加メタデータが符号化メタデータに含まれているので、ランダムアクセスや独立フレームにおける復号及びレンダリングを実現することもできる。また、追加メタデータが含まれないフレームにおいても、VBAPゲインの補間処理を切り替えることにより、ランダムアクセスや独立フレームにおける復号及びレンダリングを実現することもできる。
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図6は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、入力部506、出力部507、記録部508、通信部509、及びドライブ510が接続されている。
入力部506は、キーボード、マウス、マイクロホン、撮像素子などよりなる。出力部507は、ディスプレイ、スピーカなどよりなる。記録部508は、ハードディスクや不揮発性のメモリなどよりなる。通信部509は、ネットワークインターフェースなどよりなる。ドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブル記録媒体511を駆動する。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体511に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、本技術は、以下の構成とすることも可能である。
(1)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得する取得部と、
前記符号化オーディオデータを復号する復号部と、
前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行うレンダリング部と
を備える復号装置。
(2)
前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれている
(1)に記載の復号装置。
(3)
前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレーム内の複数のサンプルのそれぞれのメタデータである
(1)または(2)に記載の復号装置。
(4)
前記複数のメタデータのそれぞれは、前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ複数のサンプルのそれぞれのメタデータである
(3)に記載の復号装置。
(5)
前記複数のメタデータのそれぞれは、複数のサンプルインデックスのそれぞれにより示される複数のサンプルのそれぞれのメタデータである
(3)に記載の復号装置。
(6)
前記複数のメタデータのそれぞれは、前記フレーム内の所定サンプル数間隔で並ぶ複数のサンプルのそれぞれのメタデータである
(3)に記載の復号装置。
(7)
前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれている
(1)乃至(6)の何れか一項に記載の復号装置。
(8)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得し、
前記符号化オーディオデータを復号し、
前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行う
ステップを含む復号方法。
(9)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得し、
前記符号化オーディオデータを復号し、
前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行う
ステップを含む処理をコンピュータに実行させるプログラム。
(10)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化する符号化部と、
前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する生成部と
を備える符号化装置。
(11)
前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれている
(10)に記載の符号化装置。
(12)
前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレーム内の複数のサンプルのそれぞれのメタデータである
(10)または(11)に記載の符号化装置。
(13)
前記複数のメタデータのそれぞれは、前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ複数のサンプルのそれぞれのメタデータである
(12)に記載の符号化装置。
(14)
前記複数のメタデータのそれぞれは、複数のサンプルインデックスのそれぞれにより示される複数のサンプルのそれぞれのメタデータである
(12)に記載の符号化装置。
(15)
前記複数のメタデータのそれぞれは、前記フレーム内の所定サンプル数間隔で並ぶ複数のサンプルのそれぞれのメタデータである
(12)に記載の符号化装置。
(16)
前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれている
(10)乃至(15)の何れか一項に記載の符号化装置。
(17)
メタデータに対する補間処理を行う補間処理部をさらに備える
(10)乃至(16)の何れか一項に記載の符号化装置。
(18)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化し、
前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する
ステップを含む符号化方法。
(19)
オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化し、
前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する
ステップを含む処理をコンピュータに実行させるプログラム。
11 符号化装置, 22 オーディオ信号符号化部, 24 補間処理部, 25 関連情報取得部, 26 メタデータ符号化部, 27 多重化部, 28 出力部, 51 復号装置, 62 分離部, 63 オーディオ信号復号部, 64 メタデータ復号部, 65 ゲイン算出部, 66 オーディオ信号生成部, 71 追加メタデータフラグ読み出し部, 72 切り替えインデックス読み出し部, 73 補間処理部

Claims (11)

  1. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得する取得部と、
    前記符号化オーディオデータを復号する復号部と、
    前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行うレンダリング部と
    を備え、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    復号装置。
  2. 前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれている
    請求項1に記載の復号装置。
  3. 前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれている
    請求項1または請求項2に記載の復号装置。
  4. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得し、
    前記符号化オーディオデータを復号し、
    前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行う
    ステップを含み、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    復号方法。
  5. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化して得られた符号化オーディオデータと、前記フレームの複数のメタデータとを取得し、
    前記符号化オーディオデータを復号し、
    前記復号により得られたオーディオ信号と、前記複数のメタデータとに基づいてレンダリングを行う
    ステップを含む処理をコンピュータに実行させ、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    プログラム。
  6. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化する符号化部と、
    前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する生成部と
    を備え、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    符号化装置。
  7. 前記メタデータには、前記オーディオオブジェクトの位置を示す位置情報が含まれている
    請求項6に記載の符号化装置。
  8. 前記複数のメタデータには、メタデータに基づいて算出される前記オーディオ信号のサンプルのゲインの補間処理を行うためのメタデータが含まれている
    請求項6または請求項7に記載の符号化装置。
  9. メタデータに対する補間処理を行う補間処理部をさらに備える
    請求項6乃至請求項8の何れか一項に記載の符号化装置。
  10. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化し、
    前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する
    ステップを含み、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    符号化方法。
  11. オーディオオブジェクトの所定時間間隔のフレームのオーディオ信号を符号化し、
    前記符号化により得られた符号化オーディオデータと、前記フレームの複数のメタデータとが含まれたビットストリームを生成する
    ステップを含む処理をコンピュータに実行させ、
    前記複数のメタデータのそれぞれは、前記オーディオ信号の前記フレームを構成するサンプルの数を前記複数のメタデータの数で除算して得られるサンプル数の間隔で並ぶ、前記フレーム内の複数のサンプルのそれぞれのメタデータである
    プログラム。
JP2017524823A 2015-06-19 2016-06-03 符号化装置および方法、復号装置および方法、並びにプログラム Active JP6915536B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079510A JP7205566B2 (ja) 2015-06-19 2021-05-10 符号化装置および方法、復号装置および方法、並びにプログラム

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015123589 2015-06-19
JP2015123589 2015-06-19
JP2015196494 2015-10-02
JP2015196494 2015-10-02
PCT/JP2016/066574 WO2016203994A1 (ja) 2015-06-19 2016-06-03 符号化装置および方法、復号装置および方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021079510A Division JP7205566B2 (ja) 2015-06-19 2021-05-10 符号化装置および方法、復号装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JPWO2016203994A1 JPWO2016203994A1 (ja) 2018-04-05
JP6915536B2 true JP6915536B2 (ja) 2021-08-04

Family

ID=57545216

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017524823A Active JP6915536B2 (ja) 2015-06-19 2016-06-03 符号化装置および方法、復号装置および方法、並びにプログラム
JP2021079510A Active JP7205566B2 (ja) 2015-06-19 2021-05-10 符号化装置および方法、復号装置および方法、並びにプログラム
JP2022198009A Active JP7509190B2 (ja) 2015-06-19 2022-12-12 復号装置および方法、並びにプログラム

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021079510A Active JP7205566B2 (ja) 2015-06-19 2021-05-10 符号化装置および方法、復号装置および方法、並びにプログラム
JP2022198009A Active JP7509190B2 (ja) 2015-06-19 2022-12-12 復号装置および方法、並びにプログラム

Country Status (12)

Country Link
US (2) US20180315436A1 (ja)
EP (1) EP3316599B1 (ja)
JP (3) JP6915536B2 (ja)
KR (2) KR102140388B1 (ja)
CN (2) CN113470665A (ja)
BR (1) BR112017026743B1 (ja)
CA (2) CA3232321A1 (ja)
HK (1) HK1244384A1 (ja)
MX (1) MX2017016228A (ja)
RU (1) RU2720439C2 (ja)
TW (1) TWI607655B (ja)
WO (1) WO2016203994A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7509190B2 (ja) 2015-06-19 2024-07-02 ソニーグループ株式会社 復号装置および方法、並びにプログラム

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2632473C1 (ru) * 2016-09-30 2017-10-05 ООО "Ай Ти Ви групп" Способ обмена данными между ip видеокамерой и сервером (варианты)
CN114898761A (zh) * 2017-08-10 2022-08-12 华为技术有限公司 立体声信号编解码方法及装置
EP3693961B1 (en) * 2017-10-05 2024-06-12 Sony Group Corporation Encoding device and method, decoding device and method, and program
US10650834B2 (en) 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
JP2021530723A (ja) 2018-07-02 2021-11-11 ドルビー ラボラトリーズ ライセンシング コーポレイション 没入的オーディオ信号を含むビットストリームを生成またはデコードするための方法および装置
JP7441057B2 (ja) 2019-01-25 2024-02-29 日本放送協会 オーディオオーサリング装置、オーディオレンダリング装置、送信装置、受信装置、及び方法
WO2021014933A1 (ja) * 2019-07-19 2021-01-28 ソニー株式会社 信号処理装置および方法、並びにプログラム
WO2021239562A1 (en) 2020-05-26 2021-12-02 Dolby International Ab Improved main-associated audio experience with efficient ducking gain application
CN115943461A (zh) * 2020-07-09 2023-04-07 索尼集团公司 信号处理装置、方法及程序

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3352406B2 (ja) * 1998-09-17 2002-12-03 松下電器産業株式会社 オーディオ信号の符号化及び復号方法及び装置
US7624021B2 (en) * 2004-07-02 2009-11-24 Apple Inc. Universal container for audio data
CN102693727B (zh) * 2006-02-03 2015-06-10 韩国电子通信研究院 用于控制音频信号的渲染的方法
CN101290774B (zh) * 2007-01-31 2011-09-07 广州广晟数码技术有限公司 音频编码和解码系统
CN101690269A (zh) * 2007-06-26 2010-03-31 皇家飞利浦电子股份有限公司 双耳的面向对象的音频解码器
PT2489037T (pt) * 2009-10-16 2022-01-07 Fraunhofer Ges Forschung Aparelho, método e programa de computador para fornecer parâmetros ajustados
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
EP2727371A1 (en) * 2011-06-29 2014-05-07 Thomson Licensing Managing common content on a distributed storage system
TWI543642B (zh) * 2011-07-01 2016-07-21 杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
US9473870B2 (en) * 2012-07-16 2016-10-18 Qualcomm Incorporated Loudspeaker position compensation with 3D-audio hierarchical coding
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
US9826328B2 (en) 2012-08-31 2017-11-21 Dolby Laboratories Licensing Corporation System for rendering and playback of object based audio in various listening environments
WO2014087277A1 (en) * 2012-12-06 2014-06-12 Koninklijke Philips N.V. Generating drive signals for audio transducers
WO2014091375A1 (en) * 2012-12-14 2014-06-19 Koninklijke Philips N.V. Reverberation processing in an audio signal
MX347551B (es) * 2013-01-15 2017-05-02 Koninklijke Philips Nv Procesamiento de audio binaural.
CN105027478B (zh) * 2013-01-21 2018-09-21 杜比实验室特许公司 元数据转码
US9607624B2 (en) * 2013-03-29 2017-03-28 Apple Inc. Metadata driven dynamic range control
TWI530941B (zh) * 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
US8804971B1 (en) * 2013-04-30 2014-08-12 Dolby International Ab Hybrid encoding of higher frequency and downmixed low frequency content of multichannel audio
EP3712889A1 (en) * 2013-05-24 2020-09-23 Dolby International AB Efficient coding of audio scenes comprising audio objects
TWM487509U (zh) * 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
TWI607655B (zh) 2015-06-19 2017-12-01 Sony Corp Coding apparatus and method, decoding apparatus and method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7509190B2 (ja) 2015-06-19 2024-07-02 ソニーグループ株式会社 復号装置および方法、並びにプログラム

Also Published As

Publication number Publication date
KR20170141276A (ko) 2017-12-22
BR112017026743B1 (pt) 2022-12-27
JP2023025251A (ja) 2023-02-21
RU2017143404A (ru) 2019-06-13
CN107637097B (zh) 2021-06-29
EP3316599A1 (en) 2018-05-02
KR102140388B1 (ko) 2020-07-31
EP3316599B1 (en) 2020-10-28
HK1244384A1 (zh) 2018-08-03
TW201717663A (zh) 2017-05-16
US20190304479A1 (en) 2019-10-03
RU2720439C2 (ru) 2020-04-29
RU2017143404A3 (ja) 2019-11-13
CA3232321A1 (en) 2016-12-22
CA2989099C (en) 2024-04-16
TWI607655B (zh) 2017-12-01
EP3316599A4 (en) 2019-02-20
BR112017026743A2 (ja) 2018-08-28
JP7509190B2 (ja) 2024-07-02
WO2016203994A1 (ja) 2016-12-22
CN107637097A (zh) 2018-01-26
US11170796B2 (en) 2021-11-09
CA2989099A1 (en) 2016-12-22
JP2021114001A (ja) 2021-08-05
CN113470665A (zh) 2021-10-01
JP7205566B2 (ja) 2023-01-17
JPWO2016203994A1 (ja) 2018-04-05
US20180315436A1 (en) 2018-11-01
MX2017016228A (es) 2018-04-20
KR20180107307A (ko) 2018-10-01

Similar Documents

Publication Publication Date Title
JP7205566B2 (ja) 符号化装置および方法、復号装置および方法、並びにプログラム
US20240055007A1 (en) Encoding device and encoding method, decoding device and decoding method, and program
JP6510541B2 (ja) 環境高次アンビソニックス係数の遷移
US9847088B2 (en) Intermediate compression for higher order ambisonic audio data
US20170092280A1 (en) Information processing apparatus and information processing method
JP6820386B2 (ja) 高次アンビソニック(hoa)コンテンツの画面に関連した適応
JP7459913B2 (ja) 信号処理装置および方法、並びにプログラム
US10375439B2 (en) Information processing apparatus and information processing method
JPWO2019069710A1 (ja) 符号化装置および方法、復号装置および方法、並びにプログラム
KR102677399B1 (ko) 신호 처리 장치 및 방법, 그리고 프로그램

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210510

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210510

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210518

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210628

R151 Written notification of patent or utility model registration

Ref document number: 6915536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151