JP7243052B2 - オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム - Google Patents
オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム Download PDFInfo
- Publication number
- JP7243052B2 JP7243052B2 JP2018120236A JP2018120236A JP7243052B2 JP 7243052 B2 JP7243052 B2 JP 7243052B2 JP 2018120236 A JP2018120236 A JP 2018120236A JP 2018120236 A JP2018120236 A JP 2018120236A JP 7243052 B2 JP7243052 B2 JP 7243052B2
- Authority
- JP
- Japan
- Prior art keywords
- audio data
- channel
- sound
- data
- accompaniment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/06—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour
- G10H1/12—Circuits for establishing the harmonic content of tones, or other arrangements for changing the tone colour by filtering complex waveforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
- G10L25/81—Detection of presence or absence of voice signals for discriminating voice from music
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
- H04S3/008—Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/086—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for transcription of raw audio or music data to a displayed or printed staff representation or to displayable MIDI-like note-oriented data, e.g. in pianoroll format
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/131—Mathematical functions for musical analysis, processing, synthesis or composition
- G10H2250/215—Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
- G10H2250/235—Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/311—Neural networks for electrophonic musical instruments or musical processing, e.g. for musical recognition or control, automatic composition or improvisation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/05—Generation or adaptation of centre channel in multi-channel audio systems
Description
以下の実施例では、オーディオデータから特定の種類の楽器音やボーカル音など(特定のオーディオ成分)を分離するための音響分離モデルを学習し、当該学習済みモデルを用いてオーディオデータから当該パートを分離する音響処理技術が開示される。
以下の実施例では、機械学習モデルによってボーカル音と伴奏音とを含むステレオ音源からボーカル音又は伴奏音の何れか一方を抽出するオーディオ抽出装置が開示される。
第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成する前処理部と、
学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するオーディオ抽出部と、
を有するオーディオ抽出装置が提供される。
前記前処理部は、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換し、
前記オーディオ抽出部は、前記学習済み機械学習モデルに前記変換された各スペクトログラムを入力し、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを抽出してもよい。
前記センターカットオーディオデータは、前記ステレオ音源の周波数帯域のセンター周辺のオーディオ成分を前記ステレオ音源から消去することによって生成してもよい。
前記前処理部は、前記ステレオ音源から前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとを分離してもよい。
第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行することによって生成されたセンターカットオーディオデータを学習用入力データとして取得し、前記伴奏音又はボーカル音の何れか一方を学習用出力データとして取得する学習用データ取得部と、
前記学習用入力データから前記学習用出力データを生成するよう機械学習モデルを学習するモデル学習部と、
を有する学習装置が提供される。
前記機械学習モデルは、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記センターカットオーディオデータから変換された各スペクトログラムを前記学習用入力データとし、前記伴奏音のスペクトログラムを前記学習用出力データとして出力してもよい。
伴奏音とボーカル音とを含むオーディオデータを、少なくとも第1軸が時間に対応し、第2軸が音の周波数に関する音情報に対応する第1の多次元データに変換する前処理部と、
変換した前記第1の多次元データを、伴奏音とボーカル音が混合されているオーディオデータに対応する多次元データを入力して、前記ボーカル音が混合されずに前記伴奏音を含むオーディオデータに対応する多次元データを出力するように学習されているニューラルネットワークに入力して、第2の多次元データを取得する伴奏音抽出部と、
取得した前記第2の多次元データを、前記ボーカル音が混合されずに前記伴奏音を含む第2のオーディオデータに変換し、変換した前記第2のオーディオデータを再生する再生部と、
を有するカラオケ装置が提供される。
前記再生部は、前記伴奏音に同期して歌詞を表示してもよい。
プロセッサが、第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成するステップと、
前記プロセッサが、学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するステップと、
を有するオーディオ抽出方法が提供される。
プロセッサが、第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行することによって生成されたセンターカットオーディオデータを学習用入力データとして取得し、前記伴奏音又は前記ボーカル音の何れか一方を学習用出力データとして取得するステップと、
前記プロセッサが、前記学習用入力データから前記学習用出力データを生成するよう機械学習モデルを学習するステップと、
を有する学習方法が提供される。
第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成するステップと、
学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するステップと、
をプロセッサに実行させるプログラムが提供される。
第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行することによって生成されたセンターカットオーディオデータを学習用入力データとして取得し、前記伴奏音又は前記ボーカル音の何れか一方を学習用出力データとして取得するステップと、
前記学習用入力データから前記学習用出力データを生成するよう機械学習モデルを学習するステップと、
をプロセッサに実行させるプログラムが提供される。
上述したプログラムを記憶するコンピュータ可読記憶媒体が提供される。
100 学習装置
200 音響分離装置
300 電子楽器装置
400 オーディオ抽出装置
450 学習用データストレージ
500 学習装置
600 カラオケ装置
Claims (14)
- 第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成する前処理部と、
学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するオーディオ抽出部と、
を有し、
前記前処理部は、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換し、
前記オーディオ抽出部は、前記学習済み機械学習モデルに前記変換された各スペクトログラムを入力し、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを抽出し、
前記学習済み機械学習モデルは、前記第1チャネル用オーディオデータに対応するスペクトログラム、前記第2チャネル用オーディオデータに対応するスペクトログラム及び前記センターカットオーディオデータに対応するスペクトログラムを入力して、前記伴奏音と前記ボーカル音が混在されずに前記伴奏音又は前記ボーカル音の何れか一方に対応するスペクトログラムを出力するように学習されたモデルである、
オーディオ抽出装置。 - 前記前処理部は、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータのそれぞれを、少なくとも第1軸が時間に対応し、第2軸が音の周波数に関する音情報に対応する多次元データである第1のスペクトログラムに変換し、
前記オーディオ抽出部は、変換した前記第1のスペクトログラムを、前記学習済み機械学習モデルに入力して、前記伴奏音と前記ボーカル音との何れか一方に対応する前記多次元データである第2のスペクトログラムを取得し、取得した前記第2のスペクトログラムを、前記伴奏音と前記ボーカル音が混在されずに前記伴奏音又は前記ボーカル音の何れか一方に対応するオーディオデータに変換する、請求項1記載のオーディオ抽出装置。 - 前記センターカットオーディオデータは、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとの周波数帯域のセンター周辺のオーディオ成分を、前記減算処理によって前記ステレオ音源から消去または低減することによって生成される、請求項1または2記載のオーディオ抽出装置。
- 前記前処理部は、前記ステレオ音源から前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとを分離する、請求項1乃至3何れか一項記載のオーディオ抽出装置。
- 請求項1乃至4のいずれか一項に記載のオーディオ抽出装置を備え、
前記オーディオ抽出部は、前記学習済み機械学習モデルに前記変換された各スペクトログラムを入力し、前記ボーカル音が混合されずに前記伴奏音を含むオーディオデータに対応する伴奏音のスペクトログラムを抽出し、
抽出した前記伴奏音のスペクトログラムを、前記ボーカル音が混合されずに前記伴奏音を含む伴奏音のオーディオデータに変換し、変換した前記伴奏音のオーディオデータを再生する再生部を有するオーディオ再生装置。 - 前記再生部は、前記伴奏音に同期して歌詞を表示する、請求項5に記載のオーディオ再生装置。
- プロセッサが、
第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成する前処理と、
前記プロセッサが、学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するオーディオ抽出処理と、
を実行し、
前記前処理は、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換する処理であり、
前記オーディオ抽出処理は、前記学習済み機械学習モデルに前記変換された各スペクトログラムを入力し、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを抽出する処理であり、
前記学習済み機械学習モデルは、前記第1チャネル用オーディオデータに対応するスペクトログラム、前記第2チャネル用オーディオデータに対応するスペクトログラム及び前記センターカットオーディオデータに対応するスペクトログラムを入力して、前記伴奏音と前記ボーカル音が混在されずに前記伴奏音又は前記ボーカル音の何れか一方に対応するスペクトログラムを出力するように学習されたモデルである、
オーディオ抽出方法。 - プロセッサが、第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行することによって生成されたセンターカットオーディオデータを学習用入力データとして取得し、前記伴奏音又は前記ボーカル音の何れか一方を学習用出力データとして取得するステップと、
前記プロセッサが、前記学習用入力データから前記学習用出力データを生成するよう機械学習モデルを学習するステップと、
を有し、
前記プロセッサが、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換し、前記変換された各スペクトログラムを前記機械学習モデルに入力することにより、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを出力するように前記機械学習モデルを学習させる、
機械学習方法。 - 前記プロセッサが、前記学習用入力データと前記学習用出力データとを組とする複数の学習用データを取得し、
取得した前記複数の学習用データに基づいて前記機械学習モデルを学習させる、請求項8に記載の機械学習方法。 - 前記プロセッサが、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータのそれぞれを、少なくとも第1軸が時間に対応し、第2軸が音の周波数に関する音情報に対応する多次元データである第1のスペクトログラムに変換し、
変換した前記第1のスペクトログラムを、前記機械学習モデルに入力することにより、前記伴奏音と前記ボーカル音との何れか一方に対応する前記多次元データである第2のスペクトログラムを出力するように前記機械学習モデルを学習させる、請求項8または9記載の機械学習方法。 - 前記機械学習モデルは、画像データの局所範囲の特徴量を、複数の異なる範囲を対象として抽出する畳み込み層および画像データの局所範囲に亘る位置ずれを修正する層を含む畳み込みニューラルネットワークにより実現され、
前記プロセッサが、各オーディオデータを対数の周波数軸を有する画像データに変換して前記ニューラルネットワークに入力することにより前記機械学習モデルを学習させる、請求項8乃至10何れか一項記載の機械学習方法。 - 前記機械学習モデルは、入力された画像データに基づいて新たな画像データを生成する生成器と、2つの画像データの違いを判別する判別器とを含み、
前記プロセッサは、各オーディオデータを変換して得られた学習用の混合画像データを前記生成器に入力し、前記生成器から出力される分離画像データと学習用の分離画像データとを前記判別器に入力し、前記判別器から取得されたそれぞれの出力値の誤差に基づき前記生成器を学習させる、請求項8乃至10何れか一項記載の機械学習方法。 - 第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行し、センターカットオーディオデータを生成する前処理と、
学習済み機械学習モデルによって、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータから、前記伴奏音又は前記ボーカル音の何れか一方を抽出するオーディオ抽出処理と、
をプロセッサに実行させ、
前記前処理は、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換する処理であり、
前記オーディオ抽出処理は、前記学習済み機械学習モデルに前記変換された各スペクトログラムを入力し、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを抽出する処理であり、
前記学習済み機械学習モデルは、前記第1チャネル用オーディオデータに対応するスペクトログラム、前記第2チャネル用オーディオデータに対応するスペクトログラム及び前記センターカットオーディオデータに対応するスペクトログラムを入力して、前記伴奏音と前記ボーカル音が混在されずに前記伴奏音又は前記ボーカル音の何れか一方に対応するスペクトログラムを出力するように学習されたモデルである、プログラム。 - 第1チャネル用の伴奏音とボーカル音とを含む第1チャネル用オーディオデータと第2チャネル用の伴奏音とボーカル音とを含む第2チャネル用オーディオデータとを含むステレオ音源に対して、前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ、及び前記第1チャネル用オーディオデータと前記第2チャネル用オーディオデータとに減算処理を実行することによって生成されたセンターカットオーディオデータを学習用入力データとして取得し、前記伴奏音又は前記ボーカル音の何れか一方を学習用出力データとして取得する取得処理と、
前記学習用入力データから前記学習用出力データを生成するよう機械学習モデルを学習する学習処理と、
をプロセッサに実行させ、
前記第1チャネル用オーディオデータ、前記第2チャネル用オーディオデータ及び前記センターカットオーディオデータを各スペクトログラムに変換し、前記変換された各スペクトログラムを前記機械学習モデルに入力することにより、前記伴奏音と前記ボーカル音との何れか一方のスペクトログラムを出力するように前記機械学習モデルを学習させる、プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120236A JP7243052B2 (ja) | 2018-06-25 | 2018-06-25 | オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム |
CN201910530186.4A CN110634501B (zh) | 2018-06-25 | 2019-06-19 | 音频提取装置、机器训练装置、卡拉ok装置 |
US16/447,796 US10789921B2 (en) | 2018-06-25 | 2019-06-20 | Audio extraction apparatus, machine learning apparatus and audio reproduction apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018120236A JP7243052B2 (ja) | 2018-06-25 | 2018-06-25 | オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020003537A JP2020003537A (ja) | 2020-01-09 |
JP2020003537A5 JP2020003537A5 (ja) | 2021-07-29 |
JP7243052B2 true JP7243052B2 (ja) | 2023-03-22 |
Family
ID=68968485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120236A Active JP7243052B2 (ja) | 2018-06-25 | 2018-06-25 | オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10789921B2 (ja) |
JP (1) | JP7243052B2 (ja) |
CN (1) | CN110634501B (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11010666B1 (en) * | 2017-10-24 | 2021-05-18 | Tunnel Technologies Inc. | Systems and methods for generation and use of tensor networks |
CN110164469B (zh) * | 2018-08-09 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种多人语音的分离方法和装置 |
US11521592B2 (en) * | 2019-09-24 | 2022-12-06 | Baidu Usa Llc | Small-footprint flow-based models for raw audio |
CN111192594B (zh) * | 2020-01-10 | 2022-12-09 | 腾讯音乐娱乐科技(深圳)有限公司 | 人声和伴奏分离方法及相关产品 |
CN111261186B (zh) * | 2020-01-16 | 2023-05-30 | 南京理工大学 | 基于改进自注意力机制与跨频带特征的音频音源分离方法 |
CN112133327B (zh) * | 2020-09-17 | 2024-02-13 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频样本的提取方法、设备、终端及存储介质 |
US20220101872A1 (en) * | 2020-09-25 | 2022-03-31 | Descript, Inc. | Upsampling of audio using generative adversarial networks |
JP2023546147A (ja) * | 2020-10-17 | 2023-11-01 | ドルビー・インターナショナル・アーベー | 入力マルチチャンネルオーディオ信号から中間オーディオフォーマットを生成するための方法および装置 |
CN112420062A (zh) * | 2020-11-18 | 2021-02-26 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种音频信号处理方法及设备 |
CN113055809B (zh) * | 2021-03-12 | 2023-02-28 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种5.1声道信号生成方法、设备及介质 |
US11947628B2 (en) * | 2021-03-30 | 2024-04-02 | Snap Inc. | Neural networks for accompaniment extraction from songs |
CN113571084B (zh) * | 2021-07-08 | 2024-03-22 | 咪咕音乐有限公司 | 音频处理方法、装置、设备及存储介质 |
GB2609021B (en) * | 2021-07-16 | 2024-04-17 | Sony Interactive Entertainment Europe Ltd | Audio generation methods and systems |
GB2609019A (en) * | 2021-07-16 | 2023-01-25 | Sony Interactive Entertainment Europe Ltd | Audio generation methods and systems |
GB2609605B (en) * | 2021-07-16 | 2024-04-17 | Sony Interactive Entertainment Europe Ltd | Audio generation methods and systems |
WO2023141133A2 (en) * | 2022-01-20 | 2023-07-27 | Malamute, Inc. | Sound isolation |
US20230282188A1 (en) * | 2022-03-07 | 2023-09-07 | Lemon Inc. | Beatboxing transcription |
KR102623171B1 (ko) * | 2022-03-21 | 2024-01-11 | 주식회사 워프 | 음원 분류 모델을 생성하기 위한 방법, 서버 및 컴퓨터프로그램 |
JP2024033382A (ja) * | 2022-08-30 | 2024-03-13 | ヤマハ株式会社 | 楽器識別方法、楽器識別装置、および、楽器識別プログラム |
CN116189636B (zh) * | 2023-04-24 | 2023-07-07 | 深圳视感文化科技有限公司 | 基于电子乐器的伴奏生成方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150278686A1 (en) | 2014-03-31 | 2015-10-01 | Sony Corporation | Method, system and artificial neural network |
WO2018042791A1 (ja) | 2016-09-01 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06102893A (ja) | 1992-09-22 | 1994-04-15 | Matsushita Electric Ind Co Ltd | カラオケ装置 |
JP2006195385A (ja) | 2005-01-17 | 2006-07-27 | Matsushita Electric Ind Co Ltd | 音楽再生装置および音楽再生プログラム |
KR100636248B1 (ko) * | 2005-09-26 | 2006-10-19 | 삼성전자주식회사 | 보컬 제거 장치 및 방법 |
CN101577117B (zh) * | 2009-03-12 | 2012-04-11 | 无锡中星微电子有限公司 | 伴奏音乐提取方法及装置 |
CN101609667B (zh) * | 2009-07-22 | 2012-09-05 | 福州瑞芯微电子有限公司 | Pmp播放器中实现卡拉ok功能的方法 |
KR20120132342A (ko) * | 2011-05-25 | 2012-12-05 | 삼성전자주식회사 | 보컬 신호 제거 장치 및 방법 |
CN103915086A (zh) * | 2013-01-07 | 2014-07-09 | 华为技术有限公司 | 信息处理的方法、装置和系统 |
US9794715B2 (en) * | 2013-03-13 | 2017-10-17 | Dts Llc | System and methods for processing stereo audio content |
US9852745B1 (en) * | 2016-06-24 | 2017-12-26 | Microsoft Technology Licensing, Llc | Analyzing changes in vocal power within music content using frequency spectrums |
CN107680611B (zh) * | 2017-09-13 | 2020-06-16 | 电子科技大学 | 基于卷积神经网络的单通道声音分离方法 |
-
2018
- 2018-06-25 JP JP2018120236A patent/JP7243052B2/ja active Active
-
2019
- 2019-06-19 CN CN201910530186.4A patent/CN110634501B/zh active Active
- 2019-06-20 US US16/447,796 patent/US10789921B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150278686A1 (en) | 2014-03-31 | 2015-10-01 | Sony Corporation | Method, system and artificial neural network |
WO2018042791A1 (ja) | 2016-09-01 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
Non-Patent Citations (1)
Title |
---|
Zhe-Cheng Fan,Jyh-Shing Roger Jang,Chung-Li Lu,Singing Voice Separation and Pitch Extraction from Monaural Polyphonic Audio Music Via DNN and Adaptive Pitch Tracking,2016 IEEE Second International Conference on Multimedia Big Data,IEEE,2016年08月18日,pp178-185 |
Also Published As
Publication number | Publication date |
---|---|
CN110634501A (zh) | 2019-12-31 |
US10789921B2 (en) | 2020-09-29 |
JP2020003537A (ja) | 2020-01-09 |
US20190392802A1 (en) | 2019-12-26 |
CN110634501B (zh) | 2023-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7243052B2 (ja) | オーディオ抽出装置、オーディオ再生装置、オーディオ抽出方法、オーディオ再生方法、機械学習方法及びプログラム | |
JP5283289B2 (ja) | 音楽音響信号生成システム | |
JP6617783B2 (ja) | 情報処理方法、電子機器及びプログラム | |
KR20020044081A (ko) | 연주악기의 소리정보, 또는 소리정보 및 악보정보를이용한 음악분석 방법 | |
US11146907B2 (en) | Audio contribution identification system and method | |
US11340704B2 (en) | Tactile audio enhancement | |
Orife | Riddim: A rhythm analysis and decomposition tool based on independent subspace analysis | |
US11842720B2 (en) | Audio processing method and audio processing system | |
Schneider | Perception of timbre and sound color | |
JP2020021098A (ja) | 情報処理装置、電子機器及びプログラム | |
CN108369800B (zh) | 声处理装置 | |
Chowning | Digital sound synthesis, acoustics and perception: A rich intersection | |
Cuesta et al. | A framework for multi-f0 modeling in SATB choir recordings | |
Freire et al. | Study of the tremolo technique on the acoustic guitar: Experimental setup and preliminary results on regularity | |
JP4152502B2 (ja) | 音響信号の符号化装置および符号データの編集装置 | |
WO2023092368A1 (zh) | 音频分离方法、装置、设备、存储介质及程序产品 | |
Sarkar | Time-domain music source separation for choirs and ensembles | |
US20240134459A1 (en) | Haptic feedback method, system and related device for matching split-track music to vibration | |
Mazzola et al. | Software Tools and Hardware Options | |
CN114005461A (zh) | 音乐伴奏的分离方法和装置 | |
Südholt et al. | Vocal timbre effects with differentiable digital signal processing | |
Delekta et al. | Synthesis System for Wind Instruments Parts of the Symphony Orchestra | |
SHI | Extending the Sound of the Guzheng | |
CN115910009A (zh) | 电子设备、方法和计算机程序 | |
Barthet et al. | From performer to listener: an analysis of timbre variations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210603 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220816 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230207 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7243052 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |