JP4813365B2 - オーディオ信号のインパルス応答を符号化及び復号化する方法 - Google Patents
オーディオ信号のインパルス応答を符号化及び復号化する方法 Download PDFInfo
- Publication number
- JP4813365B2 JP4813365B2 JP2006541827A JP2006541827A JP4813365B2 JP 4813365 B2 JP4813365 B2 JP 4813365B2 JP 2006541827 A JP2006541827 A JP 2006541827A JP 2006541827 A JP2006541827 A JP 2006541827A JP 4813365 B2 JP4813365 B2 JP 4813365B2
- Authority
- JP
- Japan
- Prior art keywords
- mpeg
- impulse response
- proto
- subsequent
- impulse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000004044 response Effects 0.000 title claims description 75
- 238000000034 method Methods 0.000 title claims description 23
- 230000005236 sound signal Effects 0.000 title claims description 23
- 230000000694 effects Effects 0.000 claims description 16
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000012545 processing Methods 0.000 description 8
- 238000003491 array Methods 0.000 description 2
- 230000002730 additional effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 230000005919 time-dependent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0091—Means for obtaining special acoustic effects
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M7/00—Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
- H03M7/30—Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/011—Files or data streams containing coded musical information, e.g. for transmission
- G10H2240/046—File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
- G10H2240/066—MPEG audio-visual compression file formats, e.g. MPEG-4 for coding of audio-visual objects
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/055—Filters for musical processing or musical effects; Filter responses, filter architecture, filter coefficients or control parameters therefor
- G10H2250/111—Impulse response, i.e. filters defined or specified by their temporal impulse response features, e.g. for echo or reverberation applications
- G10H2250/115—FIR impulse, e.g. for echoes or room acoustics, the shape of the impulse response is specified in particular according to delay times
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Description
リバーブとも略される自然残響は、閉じた室で表面からの反射により生じる音の漸進的な減衰の効果である。音源から発した音は壁の表面に当たり、様々な角度で表面から反射される。これらの反射のうちの幾らかはすぐに知覚されるが、他の反射は知覚されるまで他の表面で反射され続ける。堅く重い表面が穏やかな減衰で音を反射する一方で、軟らかい表面は音の大部分を、特に、高周波成分を吸収する。室のサイズ、複雑さ、壁の角度、表面の性質、及び室の内容物の組合せが、室内の音特性を、したがってリバーブを決定する。
1.室内インパルス応答はMPEG−4‘サンプルダンプ’としてMPEG−4プレーヤーにロードすることができる。MPEG−4‘サンプルダンプ’は、適切なMIDI及びSAプロファイルを有するMIDIを含んだ完全な合成オーディオ(Structured Audio(SA,MPEG−4プログラミング言語))の実施を要する技術である。この解決手段はコードと複雑さと実行能力とに対する極めて高い要求を課すため、現在MPEG−4プレーヤーでは実行不可能であり、将来の装置においてさえ利用可能でないかもしれない。
2.特に仮想現実用途のために規定された‘DirectiveSound’ノードを使用することによる合成室内インパルス応答の利用の不利な点は、このようなパラメトリック合成室内インパルス応答は実測された室内インパルス応答とは著しく異なっており、音の自然さではるかに劣るということである。
3.上記解決手段1.及び2.は可能ではあるが、最適ではないため、また可能ならば新たなノードの導入は避けるべきであることから、実際の室内インパルス応答の伝送及び使用のために特別に設計された新たなノードを付加することは望ましくない。
4.室内インパルス応答の伝送にオーディオ信号自体の場合と同じ符号化を適用することは合理的でない。一般的なMPEGオーディオ符号化スキームは心理音響学的現象を利用している。これは、知覚できないオーディオ信号部分を抑圧することによりオーディオデータレートを低下させるのに特に適している。しかし、室内インパルス応答は人間の耳にではなく、室内特性に関係しているので、心理音響学を室内インパルスに適用すると歪曲をもたらしてしまう。
本発明は、MPEG−4規格との適合性があり、しかも上記の問題を克服するような、オーディオ信号のインパルス応答を符号化するための方法を具体化するという課題に基づいている。この課題は請求項1に規定された方法により解決される。
本発明の実施例を図1に基づいて説明する。図1は、本発明による連続した制御パラメータフィールドを用いたAudioFXProtoソリューションを持つBIFSシーンの一例を図式的に示したものである。
図1に示されているBIFSシーンには、MPEG−4バイナリストリーム1とMPEG−4デコーダの3つの処理層2,3,4が描かれている。デマルチプレクス/復号化層2は、例えばG723又はAACデコーダであるそれぞれのオーディオデコーダ5,6,7に3つのオーディオ信号ストリームを供給することによりこれらのオーディオ信号ストリームを復号化し、BIFSデコーダ8を使用することによりBIFSストリームを復号化する。復号化されたBIFSストリームはオーディオBIFS層3を具体化及び構成し、オーディオBIFS層3及び上のBIFS層4のノード内での信号処理のための情報を提供する。デコーダ5,6,7からの復号化されたオーディオ信号ストリームは、オーディオソースノード9,10,及び11へのオーディオ入力として機能する。オーディオソースノード11からの信号は、AudioMixノード12によりダウンミックスされた信号をSound2Dノード14を介して出力側に供給する前に、AudioFXProto13において室内インパルス応答を適用することにより付加的効果を得る。図において連続するブロック15,16,17,18で表されている複数の連続したparams[128]フィールドは、完全な室内インパルス応答を伝送するために使用される。ここで、第1のブロック15は、それぞれ室内インパルス応答の相応する部分を含んでいる後続のparams[128]フィールドの個数などの一般的情報を含んでいる。AudioFXProtoの実施では、信号処理の前に、完全な室内インパルス応答が再採取されなければならない。
第1のparams[ ]フィールド:
params[ ]の第1ブロックは後続のparams[ ]フィールドに関する情報を含んでいる:
numParamsFieldsフィールドは、使用される後続のparams[ ]フィールドの個数を決定する。NaturalReverb PROTOはこれらのフィールドを格納するのに十分なメモリを提供しなければならない。
numParamsFields =params[0]
numRevChan =params[1]
sampleRate =params[2]
reverbChannels[0…numRevChan−1]=
params[3…3+numRevChan−1]
impulseResponseCoding=
params[3+numRevChan]
後続のparams[ ]フィールドは、以下のように、連続したnumImpRespインパルス応答を含んでいる:
impulseResponseLengthは後続のimpulseResponseの長さを与える。
impulseResponseLength=params[0]
impulseResponse=
params[1…1+impulseResponseLength]…
指定したパラメータにしたがって残響を計算するために、出力として残響音信号を出す別の方法を使用してもよい。
Claims (9)
- オーディオ信号のインパルス応答を符号化する方法であって、インパルス応答により所定の室内特性に相応する音信号の再生を可能にする、方法であって、
MPEG−4エンコーダを使用して、符号化されるオーディオ信号に関連付けられる1又は2以上のインパルス応答の送信のために、後続のステップで定義されるMPEG−4 BIFSストリームの複数の連続したMPEG−4 PROTO paramsフィールドを符号化するステップと、
前記MPEG−4エンコーダによって、前記複数の連続したMPEG−4 PROTO paramsフィールドの第1番目に、後続のMPEG−4 PROTO paramsフィールドについての情報を挿入するステップであって、前記情報は、使用される後続のMPEG−4 PROTO paramsフィードの個数と、送信されるインパルス応答の個数とを含む、ステップと、
前記後続のMPEG−4 PROTO paramsフィールドに、前記インパルス応答の各々に対して、前記インパルス応答の長さ情報と、前記インパルス応答を表すサンプルとを挿入するステップと
を備える方法。 - インパルス応答のスケーラブルな伝送を可能にする、請求項1記載の方法。
- 同報通信モードでは、短いバージョンのインパルス応答は頻繁に伝送され、長いシーケンスはより低頻度で伝送される、請求項2記載の方法。
- インターリーブモードでは、インパルス応答の第1の部分は頻繁に伝送され、インパルス応答の後続部分はより低頻度で伝送される、請求項2記載の方法。
- MPEG−4デコーダによってオーディオ信号のインパルス応答を復号化する方法であって、インパルス応答により所定の室内特性に相応する音信号の再生を可能にする、方法であって、
MPEG−4デコーダにおいて、MPEG−4 BIFSストリームの複数の連続したMPEG−4 PROTO paramsフィールド内の1又は2以上のインパルス応答を受信するステップであって、前記複数の連続したMPEG−4 PROTO paramsフィールドの第1番目は、後続のMPEG−4 PROTO paramsフィールドについての情報を含み、前記情報は、使用される後続のMPEG−4 PROTO paramsフィールドの個数と、送信されるインパルス応答の個数とを含み、前記後続のMPEG−4 PROTO paramsフィールドは、前記インパルス応答の各々に対して、前記インパルス応答の長さ情報と、前記インパルス応答を表すサンプルとを含む、ステップと、
前記MPEG−4デコーダによって、前記1又は2以上のインパルス応答を表すサンプルを、前記第1のMPEG−4 PROTO paramsフィールド内の情報と、前記後続のMPEG−4 PROTO paramsフィールド内の長さ情報とに基づいて、分離するステップと、
前記MPEG−4デコーダによる、前記室内特性に相応する残響効果の計算のための前記分離されたサンプルによって表される前記1又は2以上のインパルス応答を使用するステップと、
を備える方法。 - 前記インパルス応答は、前記インパルス応答のスケーラブルな伝送に続いて受信される、請求項5記載の方法。
- 同報通信モードでは、短いバージョンのインパルス応答は頻繁に受信され、長いシーケンスはより低頻度で受信される、請求項6記載の方法。
- インターリーブモードでは、インパルス応答の第1の部分は頻繁に受信され、インパルス応答の後続部分はより低頻度で受信される、請求項6記載の方法。
- オーディオ信号のインパルス応答を符号化する装置であって、インパルス応答により所定の室内特性に相応する音信号の再生を可能にする、装置であって、
符号化されるオーディオ信号に関連付けられる1又は2以上のインパルス応答の送信のために、MPEG−4 BIFSストリームの複数の連続したMPEG−4 PROTO paramsフィールドを符号化するMPEG−4エンコーダを備え、前記MPEG−4エンコーダは、
前記MPEG−4エンコーダにより、前記複数の連続したMPEG−4 PROTO paramsフィールドの第1番目に、後続のMPEG−4 PROTO paramsフィールドについての情報を挿入し、前記情報は、使用される後続のMPEG−4 PROTO paramsフィードの個数と、送信されるインパルス応答の個数とを含み、
前記後続のMPEG−4 PROTO paramsフィールドに、前記インパルス応答の各々に対して、前記インパルス応答の長さ情報と、前記インパルス応答を表すサンプルとを挿入する、
装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP03027638 | 2003-12-02 | ||
EP03027638.0 | 2003-12-02 | ||
PCT/EP2004/013123 WO2005055193A1 (en) | 2003-12-02 | 2004-11-18 | Method for coding and decoding impulse responses of audio signals |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2007513370A JP2007513370A (ja) | 2007-05-24 |
JP2007513370A5 JP2007513370A5 (ja) | 2011-09-15 |
JP4813365B2 true JP4813365B2 (ja) | 2011-11-09 |
Family
ID=34639271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006541827A Expired - Fee Related JP4813365B2 (ja) | 2003-12-02 | 2004-11-18 | オーディオ信号のインパルス応答を符号化及び復号化する方法 |
Country Status (8)
Country | Link |
---|---|
US (1) | US7894610B2 (ja) |
EP (1) | EP1690251B1 (ja) |
JP (1) | JP4813365B2 (ja) |
KR (1) | KR101132485B1 (ja) |
CN (1) | CN1886781B (ja) |
BR (1) | BRPI0416577A (ja) |
TW (1) | TWI350476B (ja) |
WO (1) | WO2005055193A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
PT1568251E (pt) * | 2002-12-02 | 2007-04-30 | Thomson Licensing | Método para descrever a composição de sinais áudio |
EP1946517B1 (en) * | 2005-10-31 | 2012-11-28 | SK Telecom Co., Ltd. | Audio data packet format and decoding method thereof and method for correcting mobile communication terminal codec setup error and mobile communication terminal performing same |
US11257478B2 (en) | 2017-10-20 | 2022-02-22 | Sony Corporation | Signal processing device, signal processing method, and program |
CN117475983A (zh) | 2017-10-20 | 2024-01-30 | 索尼公司 | 信号处理装置、方法和存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63289597A (ja) * | 1988-03-11 | 1988-11-28 | ソニー株式会社 | 残響付加装置 |
JPH0689097A (ja) * | 1992-09-08 | 1994-03-29 | Yamaha Corp | 効果付与装置 |
JP2003263180A (ja) * | 2002-03-11 | 2003-09-19 | Yamaha Corp | 残響付与装置、残響付与方法、プログラムおよび記録媒体 |
JP2003263178A (ja) * | 2002-03-12 | 2003-09-19 | Yamaha Corp | 残響付与装置、残響付与方法、プログラムおよび記録媒体 |
JP2003330477A (ja) * | 2002-05-15 | 2003-11-19 | Sony Corp | 音響処理装置および音響処理用データの配信方法 |
JP2005157278A (ja) * | 2003-08-26 | 2005-06-16 | Victor Co Of Japan Ltd | 全周囲音場創生装置、全周囲音場創生方法、及び全周囲音場創生プログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100323487B1 (ko) * | 1994-02-01 | 2002-07-08 | 러셀 비. 밀러 | 버스트여기선형예측 |
CN1179226A (zh) * | 1995-03-22 | 1998-04-15 | 艾利森电话股份有限公司 | 基于合成的分析的线性预测语音编码器 |
US5751901A (en) * | 1996-07-31 | 1998-05-12 | Qualcomm Incorporated | Method for searching an excitation codebook in a code excited linear prediction (CELP) coder |
FI116990B (fi) | 1997-10-20 | 2006-04-28 | Nokia Oyj | Menetelmä ja järjestelmä akustisen virtuaaliympäristön käsittelemiseksi |
US6833840B2 (en) * | 2000-02-14 | 2004-12-21 | Optibase Ltd | PROTO implementation in MPEG-4 |
GB2366709A (en) | 2000-06-30 | 2002-03-13 | Graeme Roy Smith | Modular software definable pre-amplifier |
EP1209949A1 (en) | 2000-11-22 | 2002-05-29 | Technische Universiteit Delft | Wave Field Synthesys Sound reproduction system using a Distributed Mode Panel |
US20030169887A1 (en) * | 2002-03-11 | 2003-09-11 | Yamaha Corporation | Reverberation generating apparatus with bi-stage convolution of impulse response waveform |
-
2004
- 2004-11-18 BR BRPI0416577-2A patent/BRPI0416577A/pt not_active IP Right Cessation
- 2004-11-18 US US10/581,107 patent/US7894610B2/en not_active Expired - Fee Related
- 2004-11-18 CN CN2004800348480A patent/CN1886781B/zh not_active Expired - Fee Related
- 2004-11-18 JP JP2006541827A patent/JP4813365B2/ja not_active Expired - Fee Related
- 2004-11-18 WO PCT/EP2004/013123 patent/WO2005055193A1/en not_active Application Discontinuation
- 2004-11-18 EP EP04819599.4A patent/EP1690251B1/en not_active Expired - Lifetime
- 2004-11-18 KR KR1020067010706A patent/KR101132485B1/ko not_active IP Right Cessation
- 2004-11-26 TW TW093136395A patent/TWI350476B/zh not_active IP Right Cessation
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63289597A (ja) * | 1988-03-11 | 1988-11-28 | ソニー株式会社 | 残響付加装置 |
JPH0689097A (ja) * | 1992-09-08 | 1994-03-29 | Yamaha Corp | 効果付与装置 |
JP2003263180A (ja) * | 2002-03-11 | 2003-09-19 | Yamaha Corp | 残響付与装置、残響付与方法、プログラムおよび記録媒体 |
JP2003263178A (ja) * | 2002-03-12 | 2003-09-19 | Yamaha Corp | 残響付与装置、残響付与方法、プログラムおよび記録媒体 |
JP2003330477A (ja) * | 2002-05-15 | 2003-11-19 | Sony Corp | 音響処理装置および音響処理用データの配信方法 |
JP2005157278A (ja) * | 2003-08-26 | 2005-06-16 | Victor Co Of Japan Ltd | 全周囲音場創生装置、全周囲音場創生方法、及び全周囲音場創生プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2007513370A (ja) | 2007-05-24 |
US20070140501A1 (en) | 2007-06-21 |
KR20070037431A (ko) | 2007-04-04 |
TWI350476B (en) | 2011-10-11 |
TW200525416A (en) | 2005-08-01 |
WO2005055193A1 (en) | 2005-06-16 |
EP1690251B1 (en) | 2015-08-26 |
CN1886781B (zh) | 2011-05-04 |
BRPI0416577A (pt) | 2007-01-30 |
KR101132485B1 (ko) | 2012-03-30 |
US7894610B2 (en) | 2011-02-22 |
EP1690251A1 (en) | 2006-08-16 |
CN1886781A (zh) | 2006-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2465114B1 (en) | System for adaptively streaming audio objects | |
JP5646699B2 (ja) | マルチチャネル・パラメータ変換のための装置および方法 | |
TWI443647B (zh) | 用以將以物件為主之音訊信號編碼與解碼之方法與裝置 | |
KR101461685B1 (ko) | 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치 | |
JP5638037B2 (ja) | オーディオソースのパラメトリックジョイント符号化 | |
JP4519919B2 (ja) | コンパクトなサイド情報を用いたマルチチャネルの階層的オーディオ符号化 | |
EP2205007B1 (en) | Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction | |
JP5249408B2 (ja) | オーディオ信号の処理方法及び装置 | |
JP2024012333A (ja) | オーディオ・レンダリングのための事前レンダリングされた信号のための方法、装置およびシステム | |
US20070297624A1 (en) | Digital audio encoding | |
JP4813365B2 (ja) | オーディオ信号のインパルス応答を符号化及び復号化する方法 | |
TW202332290A (zh) | 使用空間擴展音源之呈現器、解碼器、編碼器、方法及位元串流 | |
KR100891667B1 (ko) | 믹스 신호의 처리 방법 및 장치 | |
KR101114431B1 (ko) | 실시간 스트리밍을 위한 오디오 생성장치, 오디오 재생장치 및 그 방법 | |
KR100717842B1 (ko) | 파라메트릭 장면기술 정보를 이용한 대화형 멀티미디어컨텐츠 부호화 장치 및 복호화 장치 | |
RU2823537C1 (ru) | Устройство и способ кодирования аудио | |
KR100891671B1 (ko) | 믹스신호 제어 방법 및 장치 | |
TW202324378A (zh) | 後期迴響距離衰減技術 | |
KR20100125118A (ko) | 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치 | |
Zoia | Room Models and Object-Oriented Audio Coding: Advantages and Applications |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071030 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071030 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100722 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100722 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110128 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20110425 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20110506 |
|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A524 Effective date: 20110727 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110824 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140902 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |