JP6430017B2 - オブジェクトオーディオ録音方法及び装置、電子機器、プログラム及び記録媒体 - Google Patents
オブジェクトオーディオ録音方法及び装置、電子機器、プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP6430017B2 JP6430017B2 JP2017533678A JP2017533678A JP6430017B2 JP 6430017 B2 JP6430017 B2 JP 6430017B2 JP 2017533678 A JP2017533678 A JP 2017533678A JP 2017533678 A JP2017533678 A JP 2017533678A JP 6430017 B2 JP6430017 B2 JP 6430017B2
- Authority
- JP
- Japan
- Prior art keywords
- sound
- position information
- sound source
- sampling
- sound signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000005070 sampling Methods 0.000 claims description 228
- 230000005236 sound signal Effects 0.000 claims description 202
- 238000012545 processing Methods 0.000 claims description 35
- 238000009434 installation Methods 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 18
- 238000013179 statistical model Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 9
- 238000010276 construction Methods 0.000 claims description 4
- 108010076504 Protein Sorting Signals Proteins 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 28
- 238000004891 communication Methods 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000012856 packing Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004826 seaming Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
- G10L21/028—Voice signal separating using properties of sound source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Circuit For Audible Band Transducer (AREA)
- Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
Description
オブジェクトオーディオ録音方法であって、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得するステップと、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップと、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するステップと
を含む方法を提供する。
各音源の発したサウンド信号が各マイクロフォンの間において形成する振幅差と位相差に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップを含んでもよい。
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数及び各音源の位置情報を識別するステップと、
前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するステップと
を含んでもよい。
各音源の発したサウンド信号が所定のディメンションにおいて形成する特徴量に基づき、対応する統計モデルを構築するステップと、
前記統計モデルを用いて、前記混合音信号からいずれか一つの音源の位置情報に合致するサウンド信号を識別及び抽出して、前記いずれか一つの音源に対応するオブジェクトサウンド信号とするステップと
を含んでもよい。
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するステップと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するステップと、
事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得するステップと
を含んでもよい。
事前設定パラメータを含み、且つ各フレームのオーディオデータの時間長を含むヘッダファイル情報を生成して、所定のオーディオ処理装置に送信するステップと、
前記各フレームのオーディオデータの時間長に合致する各フレームのオブジェクトオーディオフォーマットのオーディオデータを生成して、各フレームのオブジェクトオーディオフォーマットのオーディオデータを前記所定のオーディオ処理装置に順に送信するステップと
を含んでもよく、
前記各フレームのオーディオデータの時間長に合致する各フレームのオブジェクトオーディオフォーマットのオーディオデータを生成するステップは、
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するステップと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するステップと、
前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、各フレームのオブジェクトオーディオフォーマットのオーディオデータを取得するステップと
を含んでもよい。
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより、組合せサンプリング信号を取得するステップと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するステップと
を含んでもよい。
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応する位置情報をそれぞれサンプリングし、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録することにより、組合せサンプリング位置情報を取得するステップと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング位置情報を順に配列することにより、前記オブジェクトオーディオ補助データを取得するステップと
を含んでもよい。
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするステップを含んでもよく、
ここで、
現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、
現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録する。
オブジェクトオーディオ録音装置であって、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得するための採集ユニットと、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するための処理ユニットと、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するための組合せユニットと
を含む装置を提供する。
各音源の発したサウンド信号が各マイクロフォンの間において形成する振幅差と位相差に基づき、前記混合音信号から音源の数と各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するための処理サブユニットを含んでもよい。
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数及び各音源の位置情報を識別するための識別サブユニットと、
前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するための抽出サブユニットと
を含んでもよい。
各音源の発したサウンド信号が所定のディメンションにおいて形成する特徴量に基づき、対応する統計モデルを構築するためのモデル構築モジュールと、
前記統計モデルを用いて、前記混合音信号からいずれか一つの音源の位置情報に合致するサウンド信号を識別及び抽出して、前記いずれか一つの音源に対応するオブジェクトサウンド信号とするための抽出モジュールと
を含んでもよい。
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するための信号組合せサブユニットと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するための位置組合せサブユニットと、
事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得するための第1継ぎ合せサブユニットと
を含んでもよい。
事前設定パラメータを含み、且つ信号組合せサブユニット、位置組合せサブユニット及び継ぎ合せサブユニットが前記各フレームのオーディオデータの時間長に合致する各フレームのオブジェクトオーディオフォーマットのオーディオデータを生成できるように、各フレームのオーディオデータの時間長を含むヘッダファイル情報を生成して、所定のオーディオ処理装置に送信するためのヘッダファイル送信サブユニットと、
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するための信号組合せサブユニットと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するための位置組合せサブユニットと、
前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、各フレームのオブジェクトオーディオフォーマットのオーディオデータを取得するための第2継ぎ合せサブユニットと、
各フレームのオブジェクトオーディオフォーマットのオーディオデータを前記所定のオーディオ処理装置に順に送信するためのオーディオデータ送信サブユニットと
を含んでもよい。
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより、組合せサンプリング信号を取得するための信号サンプリングモジュールと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するための信号配列モジュールと
を含んでもよい。
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応する位置情報をそれぞれサンプリングし、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録することにより、組合せサンプリング位置情報を取得するための第1位置記録モジュールと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング位置情報を順に配列することにより、前記オブジェクトオーディオ補助データを取得するための位置配列モジュールと
を含んでもよい。
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするための位置サンプリングモジュールと、
現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録するための第2位置記録モジュールと
を含んでもよい。
プロセッサと、
前記プロセッサにより実行可能なインストラクションを記憶するためのメモリと
を備え、
前記プロセッサは、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得し、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出し、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得する
ように構成される電子機器を提供する。
本発明の実施例に係る第4様態によれば、
プロセッサに実行されることにより、第1態様による前記方法を実現するプログラムを提供する。
本発明の実施例に係る第5態様によれば、
第4態様による前記プログラムが記録されている記録媒体を提供する。
1)予めオーディオデータと位置情報を用意する必要があるため、オブジェクトオーディオを直接録音して取得することができない。
2)それと同時に、各チャンネルのオーディオの位置は個別に用意されるため、通常各チャンネルのオーディオの真の位置を確実に反映することができない。
1)各音源ごとにMICを個別に用意する必要があるため、ハードウェアコストが過度に高くなってしまう。
2)MICの場合、音源に近付けて設置し且つ音源に追従して移動しなければならないため、実現が非常に困難であり、録音器材のコストが急増する。
3)複数のMICによりそれぞれ採集したオブジェクトサウンド信号同士を同期させる必要があるが、音源の数が多く、且つMICが音源に近付けて設置されてオブジェクトオーディオ生成デバイスから離れている場合、又は無線MICを利用する場合、実現が非常に困難である。
4)音源の位置情報の場合、別途個別に取得され、且つその後にオブジェクトオーディオに添付されるため、音源の数が多く、その移動が不規則であるなどの要素の影響で、最後に取得されたオブジェクトオーディオが真の音源位置を忠実に表すことが難しい。
1)所定のサンプリング周期に基づき、サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより組合せサンプリング信号を取得するステップと、
2)サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するステップと
を含んでもよい。
1)所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応する位置情報をそれぞれサンプリングし、取得された各サンプリング位置情報をそれに対応する音源情報、サンプリング時点情報に関連付けて記録することにより、組合せサンプリング位置情報を取得するステップと、
2)サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング位置情報を順に配列することにより、前記オブジェクトオーディオ補助データを取得するステップと
を含んでもよい。
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするステップを含んでもよい。
現在のサンプリングポイント(sampling points)が最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、
現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違がある場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録する。
ステップ616において、事前設定パラメータを含み、且つ各フレームのオーディオデータの時間長を含むヘッダファイル情報を生成して、所定のオーディオ処理装置に送信する。
採集ユニット1001は、複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得するように構成され、
処理ユニット1002は、前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するように構成され、
組合せユニット1003は、各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するように構成される。
識別サブユニット1002Bは、前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数及び各音源の位置情報を識別するように構成され、
抽出サブユニット1002Cは、前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するように構成される。
モデル構築モジュール1002C1は、各音源の発したサウンド信号が所定のディメンションにおいて形成する特徴量に基づき、対応する統計モデルを構築するように構成され、
抽出モジュール1002C2は、前記統計モデルを用いて、前記混合音信号からいずれか一つの音源の位置情報に合致するサウンド信号を識別及び抽出して、前記いずれか一つの音源に対応するオブジェクトサウンド信号とするように構成される。
信号組合せサブユニット1003Aは、各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するように構成され、
位置組合せサブユニット1003Bは、前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するように構成され、
第1継ぎ合せサブユニット1003Cは、事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得するように構成される。
信号サンプリングモジュール1003A1は、所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより、組合せサンプリング信号を取得するように構成され、
信号配列モジュール1003A2は、サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するように構成される。
第1位置記録モジュール1003B1は、所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応する位置情報をそれぞれサンプリングし、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録することにより、組合せサンプリング位置情報を取得するように構成され、
位置配列モジュール1003B2は、サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング位置情報を順に配列することにより、前記オブジェクトオーディオ補助データを取得するように構成される。
位置サンプリングモジュール1003B3は、所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするように構成され、
第2位置記録モジュール1003B4は、現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録するように構成される。
オブジェクトオーディオ録音装置であって、
プロセッサと、
前記プロセッサにより実行可能なインストラクションを記憶するためのメモリと
を含み、
前記プロセッサは、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得し、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出し、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するように構成される装置を提供する。
メモリと、
前記メモリに記憶される1つ又は1つ以上のプログラムと
を含み、
前記1つ又は1つ以上のプログラムは、
1つ又は1つ以上のプロセッサにより実行されるように構成され、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得し、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出し、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得する
動作を行うためのインストラクションを含む端末を提供する。
Claims (13)
- オブジェクトオーディオ録音方法であって、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得するステップと、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップと、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するステップと
を含み、サウンド採集動作を実行するプロセスにおいて、複数の前記マイクロフォンの相対的な位置状況をそのまま保持し、
前記各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するステップは、
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するステップと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するステップと、
事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得するステップと
を含み、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するステップは、
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするステップを含み、
現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、
現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録することを特徴とする方法。 - 前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップは、
各音源の発したサウンド信号が各マイクロフォンの間において形成する振幅差と位相差に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップ
を含むことを特徴とする請求項1に記載の方法。 - 前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するステップは、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数及び各音源の位置情報を識別するステップと、
前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するステップと
を含むことを特徴とする請求項1に記載の方法。 - 前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するステップは、
各音源の発したサウンド信号が所定のディメンションにおいて形成する特徴量に基づき、対応する統計モデルを構築するステップと、
前記統計モデルを用いて、前記混合音信号からいずれか一つの音源の位置情報に合致するサウンド信号を識別及び抽出して、前記いずれか一つの音源に対応するオブジェクトサウンド信号とするステップと
を含むことを特徴とする請求項3に記載の方法。 - 前記各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するステップは、
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより、組合せサンプリング信号を取得するステップと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するステップと
を含むことを特徴とする請求項1から請求項4のいずれかに記載の方法。 - オブジェクトオーディオ録音装置であって、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得するための採集ユニットと、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するための処理ユニットと、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得するための組合せユニットと
を含み、サウンド採集動作を実行するプロセスにおいて、複数の前記マイクロフォンの相対的な位置状況をそのまま保持し、
前記組合せユニットは、
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得するための信号組合せサブユニットと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得するための位置組合せサブユニットと、
事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得するための第1継ぎ合せサブユニットと
を含み、
前記位置組合せサブユニットは、
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングするための位置サンプリングモジュールと、
現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録するための第2位置記録モジュールと
を含むことを特徴とする装置。 - 前記処理ユニットは、
各音源の発したサウンド信号が各マイクロフォンの間において形成する振幅差と位相差に基づき、前記混合音信号から音源の数と各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出するための処理サブユニット
を含むことを特徴とする請求項6に記載の装置。 - 前記処理ユニットは、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数及び各音源の位置情報を識別するための識別サブユニットと、
前記混合音信号、マイクロフォンそれぞれの設置位置情報、及び前記音源の数と前記音源の位置情報に基づき、前記混合音信号から各音源に対応するオブジェクトサウンド信号を抽出するための抽出サブユニットと
を含むことを特徴とする請求項6に記載の装置。 - 前記抽出サブユニットは、
各音源の発したサウンド信号が所定のディメンションにおいて形成する特徴量に基づき、対応する統計モデルを構築するためのモデル構築モジュールと、
前記統計モデルを用いて、前記混合音信号からいずれか一つの音源の位置情報に合致するサウンド信号を識別及び抽出して、前記いずれか一つの音源に対応するオブジェクトサウンド信号とするための抽出モジュールと
を含むことを特徴とする請求項8に記載の装置。 - 前記信号組合せサブユニットは、
所定のサンプリング周期に基づき、各サンプリング時点ごとに、各音源に対応するオブジェクトサウンド信号をそれぞれサンプリングし、前記配列順にしたがってすべてのサンプリング信号を配列することにより、組合せサンプリング信号を取得するための信号サンプリングモジュールと、
サンプリング順番にしたがって、各サンプリング時点それぞれにおいて取得された組合せサンプリング信号を順に配列することにより、前記マルチオブジェクトオーディオデータを取得するための信号配列モジュールと
を含むことを特徴とする請求項6から請求項9のいずれかに記載の装置。 - プロセッサと、
前記プロセッサにより実行可能なインストラクションを記憶するためのメモリと
を備え、
前記プロセッサは、
複数のマイクロフォンにより同時にサウンド採集動作を実行して混合音信号を取得し、
前記混合音信号、及びマイクロフォンそれぞれの設置位置情報に基づき、前記混合音信号から音源の数、各音源の位置情報を識別して、各音源に対応するオブジェクトサウンド信号を抽出し、
各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得する
ように構成され、サウンド採集動作を実行するプロセスにおいて、複数の前記マイクロフォンの相対的な位置状況をそのまま保持し、
前記各音源の位置情報とオブジェクトサウンド信号とを組合せて、オブジェクトオーディオフォーマットのオーディオデータを取得することは、
各音源の配列順にしたがって、該当するオブジェクトサウンド信号に対し組合せを行ってマルチオブジェクトオーディオデータを取得することと、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得することと、
事前設定パラメータを含むヘッダファイル情報と、前記マルチオブジェクトオーディオデータと、前記オブジェクトオーディオ補助データとに対して順に継ぎ合せを行うことにより、前記オブジェクトオーディオフォーマットのオーディオデータを取得することと
を含み、
前記配列順にしたがって各音源の位置情報に対し組合せを行うことにより、オブジェクトオーディオ補助データを取得することは、
所定のサンプリング周期に基づき、各音源に対応する位置情報をそれぞれサンプリングすることを含み、
現在のサンプリングポイントが最初のサンプリング時点である場合、取得された各サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録し、
現在のサンプリングポイントが最初のサンプリング時点でない場合、取得された各音源のサンプリング位置情報をすでに記録された同一音源の直前のサンプリング位置情報と比較し、その比較の結果相違である場合、当該サンプリング位置情報をそれに対応する音源情報及びサンプリング時点情報に関連付けて記録することを特徴とする電子機器。 - プロセッサに実行されることにより、請求項1から請求項5のいずれか1項に記載の方法を実現することを特徴とするプログラム。
- 請求項12に記載のプログラムが記録された記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510490373.6A CN105070304B (zh) | 2015-08-11 | 2015-08-11 | 实现对象音频录音的方法及装置、电子设备 |
CN201510490373.6 | 2015-08-11 | ||
PCT/CN2015/098847 WO2017024721A1 (zh) | 2015-08-11 | 2015-12-25 | 实现对象音频录音的方法及装置、电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017531213A JP2017531213A (ja) | 2017-10-19 |
JP6430017B2 true JP6430017B2 (ja) | 2018-11-28 |
Family
ID=54499657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017533678A Active JP6430017B2 (ja) | 2015-08-11 | 2015-12-25 | オブジェクトオーディオ録音方法及び装置、電子機器、プログラム及び記録媒体 |
Country Status (8)
Country | Link |
---|---|
US (1) | US9966084B2 (ja) |
EP (1) | EP3139640A3 (ja) |
JP (1) | JP6430017B2 (ja) |
KR (1) | KR101770295B1 (ja) |
CN (1) | CN105070304B (ja) |
MX (1) | MX364461B (ja) |
RU (1) | RU2630187C1 (ja) |
WO (1) | WO2017024721A1 (ja) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105070304B (zh) | 2015-08-11 | 2018-09-04 | 小米科技有限责任公司 | 实现对象音频录音的方法及装置、电子设备 |
CN107154266B (zh) * | 2016-03-04 | 2021-04-30 | 中兴通讯股份有限公司 | 一种实现音频录制的方法及终端 |
CN106200945B (zh) * | 2016-06-24 | 2021-10-19 | 广州大学 | 内容重放装置、具有该重放装置的处理系统及方法 |
CN106128472A (zh) * | 2016-07-12 | 2016-11-16 | 乐视控股(北京)有限公司 | 演唱者声音的处理方法及装置 |
CN106356067A (zh) * | 2016-08-25 | 2017-01-25 | 乐视控股(北京)有限公司 | 录音方法、装置及终端 |
CN106448687B (zh) * | 2016-09-19 | 2019-10-18 | 中科超影(北京)传媒科技有限公司 | 音频制作及解码的方法和装置 |
CN107293305A (zh) * | 2017-06-21 | 2017-10-24 | 惠州Tcl移动通信有限公司 | 一种基于盲源分离算法改善录音质量的方法及其装置 |
CN107863106B (zh) * | 2017-12-12 | 2021-07-13 | 长沙联远电子科技有限公司 | 语音识别控制方法及装置 |
CN110875053A (zh) | 2018-08-29 | 2020-03-10 | 阿里巴巴集团控股有限公司 | 语音处理的方法、装置、系统、设备和介质 |
CN109817225A (zh) * | 2019-01-25 | 2019-05-28 | 广州富港万嘉智能科技有限公司 | 一种基于位置的会议自动记录方法、电子设备及存储介质 |
CN109979447A (zh) * | 2019-01-25 | 2019-07-05 | 广州富港万嘉智能科技有限公司 | 一种基于位置的点餐控制方法、电子设备及存储介质 |
CN110459239A (zh) * | 2019-03-19 | 2019-11-15 | 深圳壹秘科技有限公司 | 基于声音数据的角色分析方法、装置和计算机可读存储介质 |
CN111370019B (zh) * | 2020-03-02 | 2023-08-29 | 字节跳动有限公司 | 声源分离方法及装置、神经网络的模型训练方法及装置 |
CN113395623B (zh) * | 2020-03-13 | 2022-10-04 | 华为技术有限公司 | 一种真无线耳机的录音方法及录音系统 |
CN111505583B (zh) * | 2020-05-07 | 2022-07-01 | 北京百度网讯科技有限公司 | 声源定位方法、装置、设备和可读存储介质 |
JP2022017880A (ja) * | 2020-07-14 | 2022-01-26 | ソニーグループ株式会社 | 信号処理装置および方法、並びにプログラム |
CN111899753A (zh) * | 2020-07-20 | 2020-11-06 | 天域全感音科技有限公司 | 一种音频分离装置、计算机设备及方法 |
CN112530411B (zh) * | 2020-12-15 | 2021-07-20 | 北京快鱼电子股份公司 | 一种实时分角色转录方法、设备和系统 |
CN112951199B (zh) * | 2021-01-22 | 2024-02-06 | 杭州网易云音乐科技有限公司 | 音频数据生成方法及装置、数据集构建方法、介质、设备 |
CN113674751A (zh) * | 2021-07-09 | 2021-11-19 | 北京字跳网络技术有限公司 | 音频处理方法、装置、电子设备和存储介质 |
CN114220454B (zh) * | 2022-01-25 | 2022-12-09 | 北京荣耀终端有限公司 | 一种音频降噪方法、介质和电子设备 |
CN114615529A (zh) * | 2022-02-25 | 2022-06-10 | 海信视像科技股份有限公司 | 显示设备、外接设备及音频播放方法 |
CN117355894A (zh) * | 2022-05-05 | 2024-01-05 | 北京小米移动软件有限公司 | 对象音频数据的生成方法、装置、电子设备和存储介质 |
CN115811574B (zh) * | 2023-02-03 | 2023-06-16 | 合肥炬芯智能科技有限公司 | 一种声音信号处理方法、装置、主设备和分体式会议系统 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4703505A (en) | 1983-08-24 | 1987-10-27 | Harris Corporation | Speech data encoding scheme |
JP3195920B2 (ja) * | 1999-06-11 | 2001-08-06 | 科学技術振興事業団 | 音源同定・分離装置及びその方法 |
US8249426B2 (en) * | 2004-12-13 | 2012-08-21 | Muvee Technologies Pte Ltd | Method of automatically editing media recordings |
DE102005008366A1 (de) * | 2005-02-23 | 2006-08-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten |
JP2007089058A (ja) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | マイクアレイ制御装置 |
US8364497B2 (en) * | 2006-09-29 | 2013-01-29 | Electronics And Telecommunications Research Institute | Apparatus and method for coding and decoding multi-object audio signal with various channel |
BRPI0715312B1 (pt) * | 2006-10-16 | 2021-05-04 | Koninklijke Philips Electrnics N. V. | Aparelhagem e método para transformação de parâmetros multicanais |
JP5338038B2 (ja) * | 2007-05-23 | 2013-11-13 | ヤマハ株式会社 | 音場補正装置およびカラオケ装置 |
CA2716817C (en) * | 2008-03-03 | 2014-04-22 | Lg Electronics Inc. | Method and apparatus for processing audio signal |
KR101499785B1 (ko) | 2008-10-23 | 2015-03-09 | 삼성전자주식회사 | 모바일 디바이스를 위한 오디오 처리 장치 및 그 방법 |
EP2194527A3 (en) * | 2008-12-02 | 2013-09-25 | Electronics and Telecommunications Research Institute | Apparatus for generating and playing object based audio contents |
US8620008B2 (en) * | 2009-01-20 | 2013-12-31 | Lg Electronics Inc. | Method and an apparatus for processing an audio signal |
KR101166612B1 (ko) | 2009-08-19 | 2012-07-18 | 엘지전자 주식회사 | 단말기에서의 음원 처리 방법 및 이를 적용한 단말기 |
US9094645B2 (en) * | 2009-07-17 | 2015-07-28 | Lg Electronics Inc. | Method for processing sound source in terminal and terminal using the same |
JP5635097B2 (ja) * | 2009-08-14 | 2014-12-03 | ディーティーエス・エルエルシーDts Llc | オーディオオブジェクトを適応的にストリーミングするためのシステム |
US10037357B1 (en) * | 2010-08-17 | 2018-07-31 | Google Llc | Selecting between global and location-specific search results |
CA3157717A1 (en) * | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
WO2014012583A1 (en) * | 2012-07-18 | 2014-01-23 | Huawei Technologies Co., Ltd. | Portable electronic device with directional microphones for stereo recording |
CN104981866B (zh) * | 2013-01-04 | 2018-09-28 | 华为技术有限公司 | 用于确定立体声信号的方法 |
KR20140114238A (ko) * | 2013-03-18 | 2014-09-26 | 삼성전자주식회사 | 오디오와 결합된 이미지 표시 방법 |
GB2515089A (en) * | 2013-06-14 | 2014-12-17 | Nokia Corp | Audio Processing |
CN104581512A (zh) * | 2014-11-21 | 2015-04-29 | 广东欧珀移动通信有限公司 | 一种立体声录制方法及装置 |
CN105070304B (zh) * | 2015-08-11 | 2018-09-04 | 小米科技有限责任公司 | 实现对象音频录音的方法及装置、电子设备 |
-
2015
- 2015-08-11 CN CN201510490373.6A patent/CN105070304B/zh active Active
- 2015-12-25 JP JP2017533678A patent/JP6430017B2/ja active Active
- 2015-12-25 RU RU2016114554A patent/RU2630187C1/ru active
- 2015-12-25 MX MX2016005224A patent/MX364461B/es active IP Right Grant
- 2015-12-25 WO PCT/CN2015/098847 patent/WO2017024721A1/zh active Application Filing
- 2015-12-25 KR KR1020167004592A patent/KR101770295B1/ko active IP Right Grant
-
2016
- 2016-03-16 EP EP16160671.0A patent/EP3139640A3/en not_active Withdrawn
- 2016-07-18 US US15/213,150 patent/US9966084B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9966084B2 (en) | 2018-05-08 |
MX364461B (es) | 2019-04-26 |
KR101770295B1 (ko) | 2017-09-05 |
EP3139640A2 (en) | 2017-03-08 |
MX2016005224A (es) | 2017-04-27 |
EP3139640A3 (en) | 2017-04-05 |
RU2630187C1 (ru) | 2017-09-05 |
US20170047076A1 (en) | 2017-02-16 |
WO2017024721A1 (zh) | 2017-02-16 |
CN105070304A (zh) | 2015-11-18 |
CN105070304B (zh) | 2018-09-04 |
JP2017531213A (ja) | 2017-10-19 |
KR20170029402A (ko) | 2017-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6430017B2 (ja) | オブジェクトオーディオ録音方法及び装置、電子機器、プログラム及び記録媒体 | |
US9641585B2 (en) | Automated video editing based on activity in video conference | |
CN107172497B (zh) | 直播方法、装置及系统 | |
KR102538775B1 (ko) | 오디오 재생 방법 및 오디오 재생 장치, 전자 기기 및 저장 매체 | |
CN105163241A (zh) | 音频播放方法及装置、电子设备 | |
WO2015191788A1 (en) | Intelligent device connection for wireless media in an ad hoc acoustic network | |
US20160155455A1 (en) | A shared audio scene apparatus | |
CN106790940B (zh) | 录音方法、录音播放方法、装置及终端 | |
US20150189455A1 (en) | Transformation of multiple sound fields to generate a transformed reproduced sound field including modified reproductions of the multiple sound fields | |
CN113890932A (zh) | 一种音频控制方法、系统及电子设备 | |
US20130106997A1 (en) | Apparatus and method for generating three-dimension data in portable terminal | |
WO2013024704A1 (ja) | 画像処理装置および方法、並びにプログラム | |
US9756421B2 (en) | Audio refocusing methods and electronic devices utilizing the same | |
CN104599691B (zh) | 音频播放方法及装置 | |
CN111787464B (zh) | 一种信息处理方法、装置、电子设备和存储介质 | |
JP6364130B2 (ja) | レコーディング方法、装置、プログラム及び記録媒体 | |
WO2016045446A1 (zh) | 语音提醒信息的生成、语音提醒方法及装置 | |
CN114594892A (zh) | 远程交互方法、远程交互设备以及计算机存储介质 | |
WO2023212879A1 (zh) | 对象音频数据的生成方法、装置、电子设备和存储介质 | |
CN109327662A (zh) | 视频拼接方法及装置 | |
CN109920437A (zh) | 干扰去除的方法及装置 | |
WO2022002218A1 (zh) | 一种音频控制方法、系统及电子设备 | |
CN113709652A (zh) | 音频播放控制方法和电子设备 | |
CN117636928A (zh) | 一种拾音装置及相关音频增强方法 | |
CN113473170A (zh) | 直播音频处理方法、装置、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171219 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180912 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180921 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181030 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6430017 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |