JP6732296B2 - オーディオ情報処理方法およびデバイス - Google Patents
オーディオ情報処理方法およびデバイス Download PDFInfo
- Publication number
- JP6732296B2 JP6732296B2 JP2018521411A JP2018521411A JP6732296B2 JP 6732296 B2 JP6732296 B2 JP 6732296B2 JP 2018521411 A JP2018521411 A JP 2018521411A JP 2018521411 A JP2018521411 A JP 2018521411A JP 6732296 B2 JP6732296 B2 JP 6732296B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- sound channel
- energy value
- subfile
- accompaniment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 36
- 238000003672 processing method Methods 0.000 title claims description 21
- 238000000034 method Methods 0.000 claims description 48
- 238000012545 processing Methods 0.000 claims description 25
- 238000001228 spectrum Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 12
- 239000000203 mixture Substances 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 17
- 238000005070 sampling Methods 0.000 description 12
- 230000003595 spectral effect Effects 0.000 description 9
- 230000009977 dual effect Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000037433 frameshift Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/06—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
- G10H1/12—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms
- G10H1/125—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms using a digital filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/087—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/041—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal based on mfcc [mel -frequency spectral coefficients]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/025—Computing or signal processing architecture features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/055—Filters for musical processing or musical effects; Filter responses, filter architecture, filter coefficients or control parameters therefor
- G10H2250/071—All pole filter, i.e. autoregressive [AR] filter
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/261—Window, i.e. apodization function or tapering function amounting to the selection and appropriate weighting of a group of samples in a digital signal within some chosen time interval, outside of which it is zero valued
- G10H2250/275—Gaussian window
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
- Stereophonic System (AREA)
- Auxiliary Devices For Music (AREA)
Description
図2は、本出願の実施形態によるオーディオ情報処理方法のフロー図である。図2に図示されるように、本出願の実施形態によるオーディオ情報処理方法は、以下のステップを含む。
図3は、本出願の実施形態による学習を通じてDNNモデルを取得する方法のフロー図である。図3に図示されるように、本出願の実施形態による学習を通じてDNNモデルを取得する方法は、以下のステップを含む。
図5は、本出願の実施形態によるオーディオ情報処理方法のフロー図である。図5に図示されるように、本出願の実施形態によるオーディオ情報処理方法は、以下のステップを含む。
図7は、本出願の実施形態によるオーディオ情報処理方法のフロー図である。図7に図示されるように、本出願の実施形態によるオーディオ情報処理方法は、以下のステップを含む。
図10は、本出願の実施形態によるオーディオ情報処理装置の構成の構成図である。図10に図示されるように、本出願の実施形態によるオーディオ情報処理装置の構成は、復号モジュール11、抽出モジュール12、獲得モジュール13、および処理モジュール14を含む。
12 抽出モジュール
13 獲得モジュール
14 処理モジュール
15 第1のモデル学習モジュール
16 第2のモデル学習モジュール
111 プロセッサ
112 記憶媒体
113 外部通信インターフェース
114 バス
S11 ハードウェアエンティティ
Claims (12)
- オーディオ情報処理装置によって実行されるオーディオ情報処理方法であって、
第1のサウンドチャンネルに対応して出力された第1のオーディオサブファイルと、第2のサウンドチャンネルに対応して出力された第2のオーディオサブファイルとを獲得するために、オーディオファイルを復号するステップと、
前記第1のオーディオサブファイルから第1のオーディオデータを抽出するステップと、
前記第2のオーディオサブファイルから第2のオーディオデータを抽出するステップと、
前記第1のオーディオデータの第1のオーディオエネルギー値を獲得するステップと、
前記第2のオーディオデータの第2のオーディオエネルギー値を獲得するステップと、
前記第1のオーディオエネルギー値と前記第2のオーディオエネルギー値との差分値が、あらかじめ決定されたしきい値よりも大きく、かつ、前記第1のオーディオエネルギー値が、前記第2のオーディオエネルギー値よりも小さい場合、前記第1のサウンドチャンネルを伴奏オーディオを出力するサウンドチャンネルとして決定し、前記第2のサウンドチャンネルをオリジナルオーディオを出力するサウンドチャンネルとして決定するか、又は、
前記第1のオーディオエネルギー値と前記第2のオーディオエネルギー値との前記差分値が、あらかじめ決定されたしきい値よりも大きくない場合、学習を通じて取得したガウス混合モデル(GMM)を使用することによって、前記第1のサウンドチャンネル又は前記第2のサウンドチャンネルへ伴奏オーディオを出力するサウンドチャンネルを割り当て、伴奏オーディオを出力するサウンドチャンネルが前記第1のサウンドチャンネルへ割り当てられる場合、前記第1のオーディオエネルギー値が、前記第2のオーディオエネルギー値より小さいか否かを決定し、前記第1のオーディオエネルギー値が前記第2のオーディオエネルギー値よりも小さいことを結果が示す場合、前記第1のサウンドチャンネルを伴奏オーディオを出力するサウンドチャンネルとして決定するステップと
を備える、方法。 - 前記方法は、
複数の他のオーディオファイルの周波数スペクトル特徴をそれぞれ抽出するステップと、
深層ニューラルネットワーク(DNN)モデルを取得するために、誤差逆伝搬(BP)アルゴリズムを使用することによって、前記抽出された周波数スペクトル特徴を学習するステップと
をさらに備え、
前記第1のオーディオサブファイルから前記第1のオーディオデータを抽出するステップは、
前記DNNモデルを使用することによって、前記第1のオーディオサブファイルから、前記第1のオーディオデータを抽出するステップを含み、
前記第2のオーディオサブファイルから前記第2のオーディオデータを抽出するステップは、
前記DNNモデルを使用することによって、前記第2のオーディオサブファイルから、前記第2のオーディオデータを抽出するステップを含む、請求項1に記載の方法。 - 前記方法は、
複数の他のオーディオファイルの知覚線形予測(PLP)特性パラメータを抽出するステップと、
前記抽出されたPLP特性パラメータに基づいて、EMアルゴリズムを使用することによって、学習を通じて、前記ガウス混合モデル(GMM)を取得するステップと
をさらに備える、請求項1に記載の方法。 - 前記第1のオーディオデータは、前記第1のサウンドチャンネルに対応して出力された人声オーディオであり、前記第2のオーディオデータは、前記第2のサウンドチャンネルに対応して出力された前記人声オーディオである、請求項1に記載の方法。
- 伴奏オーディオを出力するサウンドチャンネルであるか、オリジナルオーディオを出力するサウンドチャンネルであるかをラベル付けするステップと、
前記第1のサウンドチャンネルと前記第2のサウンドチャンネルとの切替が必要であるか否かを決定するステップと、
必要であると決定された場合、前記ラベル付けに基づいて、前記第1のサウンドチャンネルと前記第2のサウンドチャンネルとを切り替えるステップと
をさらに備える、請求項1に記載の方法。 - オーディオ情報処理装置であって、復号モジュールと、抽出モジュールと、獲得モジュールと、処理モジュールとを備え、
前記復号モジュールは、第1のサウンドチャンネルに対応して出力された第1のオーディオサブファイルと、第2のサウンドチャンネルに対応して出力された第2のオーディオサブファイルとを獲得するために、オーディオファイルを復号するように構成され、
前記抽出モジュールは、前記第1のオーディオサブファイルから第1のオーディオデータを抽出し、前記第2のオーディオサブファイルから第2のオーディオデータを抽出するように構成され、
前記獲得モジュールは、前記第1のオーディオデータの第1のオーディオエネルギー値と、前記第2のオーディオデータの第2のオーディオエネルギー値とを獲得するように構成され、
前記処理モジュールは、前記第1のオーディオエネルギー値と前記第2のオーディオエネルギー値との差分値が、あらかじめ決定されたしきい値よりも大きく、かつ、前記第1のオーディオエネルギー値が、前記第2のオーディオエネルギー値よりも小さい場合、前記第1のサウンドチャンネルを伴奏オーディオを出力するサウンドチャンネルとして決定し、前記第2のサウンドチャンネルをオリジナルオーディオを出力するサウンドチャンネルとして決定するか、又は、前記第1のオーディオエネルギー値と前記第2のオーディオエネルギー値との前記差分値が、あらかじめ決定されたしきい値よりも大きくない場合、学習を通じて取得したガウス混合モデル(GMM)を使用することによって、前記第1のサウンドチャンネル又は前記第2のサウンドチャンネルへ伴奏オーディオを出力するサウンドチャンネルを割り当て、伴奏オーディオを出力するサウンドチャンネルが前記第1のサウンドチャンネルへ割り当てられる場合、前記第1のオーディオエネルギー値が、前記第2のオーディオエネルギー値より小さいか否かを決定し、前記第1のオーディオエネルギー値が前記第2のオーディオエネルギー値よりも小さいことを結果が示す場合、前記第1のサウンドチャンネルを伴奏オーディオを出力するサウンドチャンネルとして決定するように構成された、オーディオ情報処理装置。 - 複数の他のオーディオファイルの周波数スペクトル特徴をそれぞれ抽出し、
深層ニューラルネットワーク(DNN)モデルを取得するために、誤差逆伝搬(BP)アルゴリズムを使用することによって、前記抽出された周波数スペクトル特徴を学習するように構成された第1のモデル学習モジュールをさらに備え、
前記抽出モジュールは、前記DNNモデルを使用することによって、前記第1のオーディオサブファイルから前記第1のオーディオデータを、前記第2のオーディオサブファイルから前記第2のオーディオデータをそれぞれ抽出するようにさらに構成される、請求項6に記載の装置。 - 複数の他のオーディオファイルの知覚線形予測(PLP)特性パラメータを抽出し、
前記抽出されたPLP特性パラメータに基づいて、期待値最大化(EM)アルゴリズムを使用することによって、学習を通じて、前記ガウス混合モデル(GMM)を取得するように構成された第2のモデル学習モジュールをさらに備える、請求項6に記載の装置。 - 前記第1のオーディオデータは、前記第1のサウンドチャンネルに対応して出力された人声オーディオであり、前記第2のオーディオデータは、前記第2のサウンドチャンネルに対応して出力された前記人声オーディオである、請求項6に記載の装置。
- 前記処理モジュールは、
伴奏オーディオを出力するサウンドチャンネルであるか、オリジナルオーディオを出力するサウンドチャンネルであるかをラベル付けし、
前記第1のサウンドチャンネルと前記第2のサウンドチャンネルとの切替が必要であるか否かを決定し、
必要であると決定された場合、前記ラベル付けに基づいて、前記第1のサウンドチャンネルと前記第2のサウンドチャンネルとを切り替えるようにさらに構成される、請求項6に記載の装置。 - 1つまたは複数のプロセッサと、
メモリとを備えたオーディオ情報処理装置であって、前記メモリは、プログラム命令を記憶し、前記命令が、前記1つまたは複数のプロセッサによって実行された場合、前記装置は、請求項1から5のいずれか一項に記載の方法を実行するように構成された、オーディオ情報処理装置。 - コンピュータ読取可能な記憶媒体であって、前記媒体はプログラム命令を記憶し、前記命令が、計算装置のプロセッサによって実行された場合、前記装置は、請求項1から5のいずれか一項に記載の方法を実行するように構成された、コンピュータ読取可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610157251.XA CN105741835B (zh) | 2016-03-18 | 2016-03-18 | 一种音频信息处理方法及终端 |
CN201610157251.X | 2016-03-18 | ||
PCT/CN2017/076939 WO2017157319A1 (zh) | 2016-03-18 | 2017-03-16 | 音频信息处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019502144A JP2019502144A (ja) | 2019-01-24 |
JP6732296B2 true JP6732296B2 (ja) | 2020-07-29 |
Family
ID=56251827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018521411A Active JP6732296B2 (ja) | 2016-03-18 | 2017-03-16 | オーディオ情報処理方法およびデバイス |
Country Status (6)
Country | Link |
---|---|
US (1) | US10410615B2 (ja) |
JP (1) | JP6732296B2 (ja) |
KR (1) | KR102128926B1 (ja) |
CN (1) | CN105741835B (ja) |
MY (1) | MY185366A (ja) |
WO (1) | WO2017157319A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741835B (zh) * | 2016-03-18 | 2019-04-16 | 腾讯科技(深圳)有限公司 | 一种音频信息处理方法及终端 |
CN106098081B (zh) * | 2016-06-01 | 2020-11-27 | 腾讯科技(深圳)有限公司 | 声音文件的音质识别方法及装置 |
CN106448630B (zh) * | 2016-09-09 | 2020-08-04 | 腾讯科技(深圳)有限公司 | 歌曲的数字乐谱文件的生成方法和装置 |
CN106375780B (zh) * | 2016-10-20 | 2019-06-04 | 腾讯音乐娱乐(深圳)有限公司 | 一种多媒体文件生成方法及其设备 |
CN108461086B (zh) * | 2016-12-13 | 2020-05-15 | 北京唱吧科技股份有限公司 | 一种音频的实时切换方法和装置 |
CN110085216A (zh) * | 2018-01-23 | 2019-08-02 | 中国科学院声学研究所 | 一种婴儿哭声检测方法及装置 |
CN108231091B (zh) * | 2018-01-24 | 2021-05-25 | 广州酷狗计算机科技有限公司 | 一种检测音频的左右声道是否一致的方法和装置 |
US10522167B1 (en) * | 2018-02-13 | 2019-12-31 | Amazon Techonlogies, Inc. | Multichannel noise cancellation using deep neural network masking |
CN109102800A (zh) * | 2018-07-26 | 2018-12-28 | 广州酷狗计算机科技有限公司 | 一种确定歌词显示数据的方法和装置 |
CN111061909B (zh) * | 2019-11-22 | 2023-11-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种伴奏分类方法和装置 |
CN113420771B (zh) * | 2021-06-30 | 2024-04-19 | 扬州明晟新能源科技有限公司 | 一种基于特征融合的有色玻璃检测方法 |
CN113744708B (zh) * | 2021-09-07 | 2024-05-14 | 腾讯音乐娱乐科技(深圳)有限公司 | 模型训练方法、音频评价方法、设备及可读存储介质 |
CN114615534A (zh) * | 2022-01-27 | 2022-06-10 | 海信视像科技股份有限公司 | 显示设备及音频处理方法 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4331376C1 (de) * | 1993-09-15 | 1994-11-10 | Fraunhofer Ges Forschung | Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen |
US7630500B1 (en) * | 1994-04-15 | 2009-12-08 | Bose Corporation | Spatial disassembly processor |
US5719344A (en) * | 1995-04-18 | 1998-02-17 | Texas Instruments Incorporated | Method and system for karaoke scoring |
DE10109648C2 (de) * | 2001-02-28 | 2003-01-30 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
DE60217484T2 (de) * | 2001-05-11 | 2007-10-25 | Koninklijke Philips Electronics N.V. | Schätzung der signalleistung in einem komprimierten audiosignal |
DE10123281C1 (de) * | 2001-05-14 | 2002-10-10 | Fraunhofer Ges Forschung | Vorrichtung und Verfahren zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen des Audiosignals unter Verwendung einer Autokorrelationsfunktion |
JP2003330497A (ja) * | 2002-05-15 | 2003-11-19 | Matsushita Electric Ind Co Ltd | オーディオ信号の符号化方法及び装置、符号化及び復号化システム、並びに符号化を実行するプログラム及び当該プログラムを記録した記録媒体 |
JP4068069B2 (ja) | 2004-01-13 | 2008-03-26 | 株式会社第一興商 | バックコーラス音量を自動制御するカラオケ装置 |
WO2006134366A1 (en) * | 2005-06-17 | 2006-12-21 | Cambridge Enterprise Limited | Restoring corrupted audio signals |
KR100772386B1 (ko) * | 2005-12-10 | 2007-11-01 | 삼성전자주식회사 | 음악 파일 분류 방법 및 그 시스템 |
KR101215937B1 (ko) * | 2006-02-07 | 2012-12-27 | 엘지전자 주식회사 | IOI 카운트(inter onset intervalcount) 기반 템포 추정 방법 및 이를 위한 템포 추정장치 |
US8378964B2 (en) * | 2006-04-13 | 2013-02-19 | Immersion Corporation | System and method for automatically producing haptic events from a digital audio signal |
CN101577117B (zh) * | 2009-03-12 | 2012-04-11 | 无锡中星微电子有限公司 | 伴奏音乐提取方法及装置 |
US8954175B2 (en) * | 2009-03-31 | 2015-02-10 | Adobe Systems Incorporated | User-guided audio selection from complex sound mixtures |
KR101387195B1 (ko) * | 2009-10-05 | 2014-04-21 | 하만인터내셔날인더스트리스인코포레이티드 | 오디오 신호의 공간 추출 시스템 |
CN101894559B (zh) * | 2010-08-05 | 2012-06-06 | 展讯通信(上海)有限公司 | 音频处理方法及其装置 |
US8489403B1 (en) * | 2010-08-25 | 2013-07-16 | Foundation For Research and Technology—Institute of Computer Science ‘FORTH-ICS’ | Apparatuses, methods and systems for sparse sinusoidal audio processing and transmission |
JP2016514856A (ja) * | 2013-03-21 | 2016-05-23 | インテレクチュアル ディスカバリー カンパニー リミテッド | オーディオ信号大きさの制御方法及び装置 |
EP2879131A1 (en) * | 2013-11-27 | 2015-06-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decoder, encoder and method for informed loudness estimation in object-based audio coding systems |
CN105741835B (zh) * | 2016-03-18 | 2019-04-16 | 腾讯科技(深圳)有限公司 | 一种音频信息处理方法及终端 |
-
2016
- 2016-03-18 CN CN201610157251.XA patent/CN105741835B/zh active Active
-
2017
- 2017-03-16 KR KR1020187010355A patent/KR102128926B1/ko active IP Right Grant
- 2017-03-16 MY MYPI2018701314A patent/MY185366A/en unknown
- 2017-03-16 WO PCT/CN2017/076939 patent/WO2017157319A1/zh active Application Filing
- 2017-03-16 US US15/762,841 patent/US10410615B2/en active Active
- 2017-03-16 JP JP2018521411A patent/JP6732296B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
CN105741835B (zh) | 2019-04-16 |
US20180293969A1 (en) | 2018-10-11 |
KR102128926B1 (ko) | 2020-07-01 |
JP2019502144A (ja) | 2019-01-24 |
MY185366A (en) | 2021-05-11 |
US10410615B2 (en) | 2019-09-10 |
CN105741835A (zh) | 2016-07-06 |
KR20180053714A (ko) | 2018-05-23 |
WO2017157319A1 (zh) | 2017-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6732296B2 (ja) | オーディオ情報処理方法およびデバイス | |
Borrelli et al. | Synthetic speech detection through short-term and long-term prediction traces | |
Kons et al. | Audio event classification using deep neural networks. | |
US10014002B2 (en) | Real-time audio source separation using deep neural networks | |
CN108305641B (zh) | 情感信息的确定方法和装置 | |
Kotsakis et al. | Investigation of broadcast-audio semantic analysis scenarios employing radio-programme-adaptive pattern classification | |
CN104517613A (zh) | 语音质量评估方法及装置 | |
Qazi et al. | A hybrid technique for speech segregation and classification using a sophisticated deep neural network | |
CN112037764B (zh) | 一种音乐结构的确定方法、装置、设备及介质 | |
Schlotterbeck et al. | What classroom audio tells about teaching: a cost-effective approach for detection of teaching practices using spectral audio features | |
US12093314B2 (en) | Accompaniment classification method and apparatus | |
Mishra et al. | Reliable local explanations for machine listening | |
US11244166B2 (en) | Intelligent performance rating | |
Li et al. | Audio Anti-Spoofing Detection: A Survey | |
Retta et al. | Kiñit classification in Ethiopian chants, Azmaris and modern music: A new dataset and CNN benchmark | |
CN116935889B (zh) | 一种音频类别的确定方法、装置、电子设备及存储介质 | |
CN111477248B (zh) | 一种音频噪声检测方法及装置 | |
Banga et al. | Indian EmoSpeech Command Dataset: A dataset for emotion based speech recognition in the wild | |
JP6220733B2 (ja) | 音声分類装置、音声分類方法、プログラム | |
Roberts et al. | Deep learning-based single-ended quality prediction for time-scale modified audio | |
CN115116469A (zh) | 特征表示的提取方法、装置、设备、介质及程序产品 | |
Chhabra et al. | Drum Instrument Classification Using Machine Learning | |
Yang | Towards real-time music auto-tagging using sparse features | |
Geroulanos et al. | Emotion recognition in music using deep neural networks | |
Ananthabhotla et al. | Using a neural network codec approximation loss to improve source separation performance in limited capacity networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190917 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191125 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200702 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6732296 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |